Knowledge

De-sparsified lasso

Source đź“ť

162: 120: 25: 66: 1763: 769: 1529: 928: 1455: 606: 1758:{\displaystyle {\hat {\gamma _{j}}}:={\underset {\gamma \in R^{p-1}}{argmin}}({\hat {\Sigma }}_{j,j}-2{\hat {\Sigma }}_{j,/j}\gamma +\gamma ^{T}{\hat {\Sigma }}_{/j,/j}\gamma +2\lambda _{j}\left\|\gamma \right\|_{1}} 1280: 525: 782: 1107: 1351: 1945: 1812: 319: 1146: 969: 764:{\displaystyle {\hat {\beta }}^{n}(\lambda )={\underset {\beta \in \mathbb {R} ^{p}}{argmin}}\ {\frac {1}{2n}}\left\|Y-X\beta \right\|_{2}^{2}+\lambda \left\|\beta \right\|_{1}} 1861: 1494: 1317: 598: 1190: 1061: 571: 435: 345: 1893: 1524: 1346: 1024: 462: 272:
contributes to construct confidence intervals and statistical tests for single or low-dimensional components of a large parameter vector in high-dimensional model.
409: 2004:
Geer, Sara van de; Buhlmann, Peter; Ritov, Ya'acov; Dezeure, Ruben (2014). "On Asymptotically Optimal Confidence Regions and Tests for High-Dimensional Models".
1985: 1965: 1832: 989: 545: 172: 774: 1197: 38: 2073: 467: 923:{\displaystyle {\hat {\beta }}^{n}(\lambda ,M)={\hat {\beta }}^{n}(\lambda )+{\frac {1}{n}}MX^{T}(Y-X{\hat {\beta }}^{n}(\lambda ))} 256: 52: 230: 136: 202: 187: 209: 1034:
and corresponding theory can also be applied to models with convex loss functions such as generalized linear models.
216: 1450:{\displaystyle {\hat {\beta }}={\underset {\beta }{argmin}}(P_{n}\rho _{\beta }+\lambda \left\|\beta \right\|_{1})} 1066: 198: 44: 1898: 1770: 282: 1112: 935: 1837: 1470: 1289: 1464: 2031: 2013: 223: 576: 1151: 1040: 550: 414: 324: 2050: 2023: 76: 1866: 1502: 1324: 1002: 440: 1283: 95: 773:
The de-sparsified lasso is a method modified from the Lasso estimator which fulfills the
350: 1970: 1950: 1817: 974: 530: 2067: 2035: 179: 161: 1031: 1027: 85: 65: 133:
needs a better lead and overview, more general context and categorization.
2027: 1496:
a matrix which we want to approximately invert using nodewise lasso.
1275:{\displaystyle \rho _{\beta }(y,x)=\rho (y,x\beta )(\beta \in R^{p})} 2018: 1460: 520:{\displaystyle \epsilon \sim N_{n}(0,\sigma _{\epsilon }^{2}I)} 155: 113: 59: 18: 991:
is generated using a surrogate inverse covariance matrix.
183: 90: 80: 1973: 1953: 1901: 1869: 1840: 1820: 1773: 1532: 1505: 1473: 1354: 1327: 1292: 1200: 1154: 1115: 1069: 1043: 1005: 977: 938: 785: 609: 579: 553: 533: 470: 443: 417: 353: 327: 285: 603:
The usual method to find the parameter is by Lasso:
1467:with matrix input is defined as follows: Denote by 1979: 1959: 1939: 1887: 1855: 1826: 1806: 1757: 1518: 1488: 1449: 1340: 1311: 1274: 1184: 1140: 1101: 1055: 1018: 983: 963: 922: 763: 592: 565: 539: 519: 456: 429: 403: 339: 313: 8: 188:introducing citations to additional sources 129:needs attention from an expert in statistics 1526:-norm regularized estimator is as follows: 1102:{\displaystyle x_{i}\in \chi \subset R^{p}} 53:Learn how and when to remove these messages 2017: 1972: 1952: 1927: 1916: 1915: 1904: 1903: 1900: 1868: 1842: 1841: 1839: 1819: 1794: 1787: 1776: 1775: 1772: 1749: 1731: 1708: 1697: 1696: 1685: 1684: 1677: 1657: 1650: 1639: 1638: 1619: 1608: 1607: 1588: 1555: 1540: 1534: 1533: 1531: 1510: 1504: 1475: 1474: 1472: 1438: 1414: 1404: 1370: 1356: 1355: 1353: 1332: 1326: 1303: 1291: 1263: 1205: 1199: 1153: 1120: 1114: 1093: 1074: 1068: 1042: 1010: 1004: 976: 949: 937: 902: 891: 890: 871: 854: 836: 825: 824: 799: 788: 787: 784: 755: 731: 726: 688: 676: 672: 671: 641: 623: 612: 611: 608: 584: 578: 552: 532: 505: 500: 481: 469: 448: 442: 416: 392: 367: 352: 326: 299: 284: 257:Learn how and when to remove this message 1940:{\displaystyle {\hat {\Sigma }}_{/j,/j}} 178:Relevant discussion may be found on the 1996: 1807:{\displaystyle {\hat {\Sigma }}_{j,/j}} 314:{\displaystyle Y=X\beta ^{0}+\epsilon } 139:may be able to help recruit an expert. 7: 1141:{\displaystyle y_{i}\in Y\subset R} 971:is an arbitrary matrix. The matrix 1906: 1844: 1778: 1687: 1641: 1610: 1477: 964:{\displaystyle M\in R^{p\times p}} 14: 2049:Tibshirani, Ryan; Gordon, Geoff. 34:This article has multiple issues. 1856:{\displaystyle {\hat {\Sigma }}} 1489:{\displaystyle {\hat {\Sigma }}} 1348:-norm regularized estimator is 1282:which is assumed to be strictly 171:relies largely or entirely on a 160: 118: 64: 23: 2051:"Karush-Kuhn-Tucker conditions" 1312:{\displaystyle \beta \in R^{p}} 42:or discuss these issues on the 1947:is the sub matrix without the 1909: 1882: 1870: 1847: 1781: 1745: 1739: 1690: 1644: 1613: 1603: 1546: 1480: 1444: 1434: 1428: 1397: 1361: 1269: 1250: 1247: 1232: 1223: 1211: 917: 914: 908: 896: 877: 848: 842: 830: 817: 805: 793: 751: 745: 722: 705: 635: 629: 617: 514: 487: 398: 360: 1: 1863:without the diagonal element 775:Karush–Kuhn–Tucker conditions 276:High-dimensional linear model 131:. The specific problem is: 2090: 593:{\displaystyle \beta ^{0}} 2074:Generalized linear models 1194:we have a loss function 1185:{\displaystyle i=1,...,n} 1109:and univariate responses 1056:{\displaystyle 1\times p} 566:{\displaystyle p\times 1} 430:{\displaystyle n\times p} 340:{\displaystyle n\times p} 2006:The Annals of Statistics 995:Generalized linear model 16:Generalized linear model 1063:vectors of covariables 1037:Consider the following 547:and unknown regression 79:, as no other articles 1981: 1961: 1941: 1889: 1857: 1828: 1808: 1759: 1520: 1490: 1451: 1342: 1313: 1276: 1186: 1142: 1103: 1057: 1020: 985: 965: 924: 765: 594: 567: 541: 521: 458: 431: 405: 341: 315: 137:WikiProject Statistics 1982: 1962: 1942: 1890: 1888:{\displaystyle (j,j)} 1858: 1829: 1809: 1760: 1521: 1519:{\displaystyle l_{1}} 1491: 1452: 1343: 1341:{\displaystyle l_{1}} 1314: 1277: 1187: 1143: 1104: 1058: 1021: 1019:{\displaystyle l_{1}} 986: 966: 925: 766: 595: 568: 542: 522: 459: 457:{\displaystyle X_{j}} 432: 406: 342: 316: 199:"De-sparsified lasso" 1971: 1951: 1899: 1867: 1838: 1818: 1771: 1530: 1503: 1471: 1352: 1325: 1290: 1198: 1152: 1113: 1067: 1041: 1003: 975: 936: 783: 607: 577: 551: 531: 468: 441: 415: 351: 325: 283: 184:improve this article 736: 510: 404:{\displaystyle X=:} 270:De-sparsified lasso 2028:10.1214/14-AOS1221 1977: 1957: 1937: 1885: 1853: 1824: 1804: 1755: 1601: 1516: 1499:The de-sparsified 1486: 1447: 1395: 1338: 1309: 1272: 1182: 1138: 1099: 1053: 1016: 981: 961: 920: 761: 703: 683: 590: 563: 537: 517: 496: 454: 427: 401: 337: 311: 98:for suggestions. 88:to this page from 1980:{\displaystyle j} 1960:{\displaystyle j} 1912: 1850: 1827:{\displaystyle j} 1784: 1693: 1647: 1616: 1556: 1549: 1483: 1371: 1364: 984:{\displaystyle M} 899: 862: 833: 796: 701: 687: 642: 620: 540:{\displaystyle X} 267: 266: 259: 249: 248: 234: 154: 153: 112: 111: 57: 2081: 2058: 2057: 2055: 2046: 2040: 2039: 2021: 2012:(3): 1162–1202. 2001: 1986: 1984: 1983: 1978: 1966: 1964: 1963: 1958: 1946: 1944: 1943: 1938: 1936: 1935: 1931: 1920: 1914: 1913: 1905: 1894: 1892: 1891: 1886: 1862: 1860: 1859: 1854: 1852: 1851: 1843: 1833: 1831: 1830: 1825: 1813: 1811: 1810: 1805: 1803: 1802: 1798: 1786: 1785: 1777: 1764: 1762: 1761: 1756: 1754: 1753: 1748: 1736: 1735: 1717: 1716: 1712: 1701: 1695: 1694: 1686: 1682: 1681: 1666: 1665: 1661: 1649: 1648: 1640: 1630: 1629: 1618: 1617: 1609: 1602: 1600: 1599: 1598: 1576: 1551: 1550: 1545: 1544: 1535: 1525: 1523: 1522: 1517: 1515: 1514: 1495: 1493: 1492: 1487: 1485: 1484: 1476: 1456: 1454: 1453: 1448: 1443: 1442: 1437: 1419: 1418: 1409: 1408: 1396: 1391: 1366: 1365: 1357: 1347: 1345: 1344: 1339: 1337: 1336: 1318: 1316: 1315: 1310: 1308: 1307: 1281: 1279: 1278: 1273: 1268: 1267: 1210: 1209: 1191: 1189: 1188: 1183: 1147: 1145: 1144: 1139: 1125: 1124: 1108: 1106: 1105: 1100: 1098: 1097: 1079: 1078: 1062: 1060: 1059: 1054: 1025: 1023: 1022: 1017: 1015: 1014: 990: 988: 987: 982: 970: 968: 967: 962: 960: 959: 929: 927: 926: 921: 907: 906: 901: 900: 892: 876: 875: 863: 855: 841: 840: 835: 834: 826: 804: 803: 798: 797: 789: 770: 768: 767: 762: 760: 759: 754: 735: 730: 725: 721: 702: 700: 689: 685: 684: 682: 681: 680: 675: 662: 628: 627: 622: 621: 613: 599: 597: 596: 591: 589: 588: 572: 570: 569: 564: 546: 544: 543: 538: 526: 524: 523: 518: 509: 504: 486: 485: 463: 461: 460: 455: 453: 452: 436: 434: 433: 428: 410: 408: 407: 402: 397: 396: 372: 371: 346: 344: 343: 338: 320: 318: 317: 312: 304: 303: 262: 255: 244: 241: 235: 233: 192: 164: 156: 149: 146: 140: 122: 121: 114: 107: 104: 93: 91:related articles 68: 60: 49: 27: 26: 19: 2089: 2088: 2084: 2083: 2082: 2080: 2079: 2078: 2064: 2063: 2062: 2061: 2053: 2048: 2047: 2043: 2003: 2002: 1998: 1993: 1969: 1968: 1949: 1948: 1902: 1897: 1896: 1865: 1864: 1836: 1835: 1816: 1815: 1774: 1769: 1768: 1738: 1737: 1727: 1683: 1673: 1637: 1606: 1584: 1577: 1557: 1536: 1528: 1527: 1506: 1501: 1500: 1469: 1468: 1459:Similarly, the 1427: 1426: 1410: 1400: 1372: 1350: 1349: 1328: 1323: 1322: 1299: 1288: 1287: 1284:convex function 1259: 1201: 1196: 1195: 1150: 1149: 1116: 1111: 1110: 1089: 1070: 1065: 1064: 1039: 1038: 1006: 1001: 1000: 997: 973: 972: 945: 934: 933: 889: 867: 823: 786: 781: 780: 777:is as follows: 744: 743: 708: 704: 693: 670: 663: 643: 610: 605: 604: 580: 575: 574: 549: 548: 529: 528: 527:independent of 477: 466: 465: 444: 439: 438: 413: 412: 388: 363: 349: 348: 323: 322: 295: 281: 280: 278: 263: 252: 251: 250: 245: 239: 236: 193: 191: 177: 165: 150: 144: 141: 135: 123: 119: 108: 102: 99: 89: 86:introduce links 69: 28: 24: 17: 12: 11: 5: 2087: 2085: 2077: 2076: 2066: 2065: 2060: 2059: 2041: 1995: 1994: 1992: 1989: 1976: 1956: 1934: 1930: 1926: 1923: 1919: 1911: 1908: 1884: 1881: 1878: 1875: 1872: 1849: 1846: 1823: 1801: 1797: 1793: 1790: 1783: 1780: 1752: 1747: 1744: 1741: 1734: 1730: 1726: 1723: 1720: 1715: 1711: 1707: 1704: 1700: 1692: 1689: 1680: 1676: 1672: 1669: 1664: 1660: 1656: 1653: 1646: 1643: 1636: 1633: 1628: 1625: 1622: 1615: 1612: 1605: 1597: 1594: 1591: 1587: 1583: 1580: 1575: 1572: 1569: 1566: 1563: 1560: 1554: 1548: 1543: 1539: 1513: 1509: 1482: 1479: 1463:for node wise 1446: 1441: 1436: 1433: 1430: 1425: 1422: 1417: 1413: 1407: 1403: 1399: 1394: 1390: 1387: 1384: 1381: 1378: 1375: 1369: 1363: 1360: 1335: 1331: 1306: 1302: 1298: 1295: 1271: 1266: 1262: 1258: 1255: 1252: 1249: 1246: 1243: 1240: 1237: 1234: 1231: 1228: 1225: 1222: 1219: 1216: 1213: 1208: 1204: 1181: 1178: 1175: 1172: 1169: 1166: 1163: 1160: 1157: 1137: 1134: 1131: 1128: 1123: 1119: 1096: 1092: 1088: 1085: 1082: 1077: 1073: 1052: 1049: 1046: 1013: 1009: 999:Desparsifying 996: 993: 980: 958: 955: 952: 948: 944: 941: 919: 916: 913: 910: 905: 898: 895: 888: 885: 882: 879: 874: 870: 866: 861: 858: 853: 850: 847: 844: 839: 832: 829: 822: 819: 816: 813: 810: 807: 802: 795: 792: 758: 753: 750: 747: 742: 739: 734: 729: 724: 720: 717: 714: 711: 707: 699: 696: 692: 679: 674: 669: 666: 661: 658: 655: 652: 649: 646: 640: 637: 634: 631: 626: 619: 616: 587: 583: 562: 559: 556: 536: 516: 513: 508: 503: 499: 495: 492: 489: 484: 480: 476: 473: 451: 447: 426: 423: 420: 400: 395: 391: 387: 384: 381: 378: 375: 370: 366: 362: 359: 356: 347:design matrix 336: 333: 330: 310: 307: 302: 298: 294: 291: 288: 277: 274: 265: 264: 247: 246: 182:. Please help 168: 166: 159: 152: 151: 126: 124: 117: 110: 109: 96:Find link tool 72: 70: 63: 58: 32: 31: 29: 22: 15: 13: 10: 9: 6: 4: 3: 2: 2086: 2075: 2072: 2071: 2069: 2052: 2045: 2042: 2037: 2033: 2029: 2025: 2020: 2015: 2011: 2007: 2000: 1997: 1990: 1988: 1974: 1954: 1932: 1928: 1924: 1921: 1917: 1879: 1876: 1873: 1821: 1799: 1795: 1791: 1788: 1765: 1750: 1742: 1732: 1728: 1724: 1721: 1718: 1713: 1709: 1705: 1702: 1698: 1678: 1674: 1670: 1667: 1662: 1658: 1654: 1651: 1634: 1631: 1626: 1623: 1620: 1595: 1592: 1589: 1585: 1581: 1578: 1573: 1570: 1567: 1564: 1561: 1558: 1552: 1541: 1537: 1511: 1507: 1497: 1466: 1462: 1457: 1439: 1431: 1423: 1420: 1415: 1411: 1405: 1401: 1392: 1388: 1385: 1382: 1379: 1376: 1373: 1367: 1358: 1333: 1329: 1319: 1304: 1300: 1296: 1293: 1285: 1264: 1260: 1256: 1253: 1244: 1241: 1238: 1235: 1229: 1226: 1220: 1217: 1214: 1206: 1202: 1192: 1179: 1176: 1173: 1170: 1167: 1164: 1161: 1158: 1155: 1135: 1132: 1129: 1126: 1121: 1117: 1094: 1090: 1086: 1083: 1080: 1075: 1071: 1050: 1047: 1044: 1035: 1033: 1029: 1011: 1007: 994: 992: 978: 956: 953: 950: 946: 942: 939: 930: 911: 903: 893: 886: 883: 880: 872: 868: 864: 859: 856: 851: 845: 837: 827: 820: 814: 811: 808: 800: 790: 778: 776: 771: 756: 748: 740: 737: 732: 727: 718: 715: 712: 709: 697: 694: 690: 677: 667: 664: 659: 656: 653: 650: 647: 644: 638: 632: 624: 614: 601: 585: 581: 560: 557: 554: 534: 511: 506: 501: 497: 493: 490: 482: 478: 474: 471: 449: 445: 424: 421: 418: 393: 389: 385: 382: 379: 376: 373: 368: 364: 357: 354: 334: 331: 328: 308: 305: 300: 296: 292: 289: 286: 275: 273: 271: 261: 258: 243: 232: 229: 225: 222: 218: 215: 211: 208: 204: 201: â€“  200: 196: 195:Find sources: 189: 185: 181: 175: 174: 173:single source 169:This article 167: 163: 158: 157: 148: 138: 134: 130: 127:This article 125: 116: 115: 106: 97: 92: 87: 83: 82: 78: 73:This article 71: 67: 62: 61: 56: 54: 47: 46: 41: 40: 35: 30: 21: 20: 2044: 2009: 2005: 1999: 1814:denotes the 1766: 1498: 1458: 1320: 1193: 1036: 998: 931: 779: 772: 602: 279: 269: 268: 253: 240:October 2019 237: 227: 220: 213: 206: 194: 170: 142: 132: 128: 100: 74: 50: 43: 37: 36:Please help 33: 1987:th column. 1967:th row and 1991:References 1834:th row of 1465:regression 1032:estimators 1030:penalized 210:newspapers 94:; try the 81:link to it 39:improve it 2019:1303.0518 1910:^ 1907:Σ 1848:^ 1845:Σ 1782:^ 1779:Σ 1743:γ 1729:λ 1719:γ 1691:^ 1688:Σ 1675:γ 1668:γ 1645:^ 1642:Σ 1632:− 1614:^ 1611:Σ 1593:− 1582:∈ 1579:γ 1547:^ 1538:γ 1481:^ 1478:Σ 1432:β 1424:λ 1416:β 1412:ρ 1393:β 1362:^ 1359:β 1297:∈ 1294:β 1257:∈ 1254:β 1245:β 1230:ρ 1207:β 1203:ρ 1133:⊂ 1127:∈ 1087:⊂ 1084:χ 1081:∈ 1048:× 954:× 943:∈ 912:λ 897:^ 894:β 884:− 846:λ 831:^ 828:β 809:λ 794:^ 791:β 749:β 741:λ 719:β 713:− 668:∈ 665:β 633:λ 618:^ 615:β 582:β 558:× 502:ϵ 498:σ 475:∼ 472:ϵ 422:× 332:× 309:ϵ 297:β 180:talk page 145:June 2015 103:July 2016 84:. Please 45:talk page 2068:Category 1746:‖ 1740:‖ 1435:‖ 1429:‖ 752:‖ 746:‖ 723:‖ 706:‖ 437:vectors 2036:9663766 573:vector 224:scholar 2034:  1895:, and 1767:where 932:where 686:  226:  219:  212:  205:  197:  77:orphan 75:is an 2054:(PDF) 2032:S2CID 2014:arXiv 1461:Lasso 321:with 231:JSTOR 217:books 1321:The 1148:for 1028:norm 203:news 2024:doi 1286:in 464:), 186:by 2070:: 2030:. 2022:. 2010:42 2008:. 1553::= 600:. 358:=: 48:. 2056:. 2038:. 2026:: 2016:: 1975:j 1955:j 1933:j 1929:/ 1925:, 1922:j 1918:/ 1883:) 1880:j 1877:, 1874:j 1871:( 1822:j 1800:j 1796:/ 1792:, 1789:j 1751:1 1733:j 1725:2 1722:+ 1714:j 1710:/ 1706:, 1703:j 1699:/ 1679:T 1671:+ 1663:j 1659:/ 1655:, 1652:j 1635:2 1627:j 1624:, 1621:j 1604:( 1596:1 1590:p 1586:R 1574:n 1571:i 1568:m 1565:g 1562:r 1559:a 1542:j 1512:1 1508:l 1445:) 1440:1 1421:+ 1406:n 1402:P 1398:( 1389:n 1386:i 1383:m 1380:g 1377:r 1374:a 1368:= 1334:1 1330:l 1305:p 1301:R 1270:) 1265:p 1261:R 1251:( 1248:) 1242:x 1239:, 1236:y 1233:( 1227:= 1224:) 1221:x 1218:, 1215:y 1212:( 1180:n 1177:, 1174:. 1171:. 1168:. 1165:, 1162:1 1159:= 1156:i 1136:R 1130:Y 1122:i 1118:y 1095:p 1091:R 1076:i 1072:x 1051:p 1045:1 1026:- 1012:1 1008:l 979:M 957:p 951:p 947:R 940:M 918:) 915:) 909:( 904:n 887:X 881:Y 878:( 873:T 869:X 865:M 860:n 857:1 852:+ 849:) 843:( 838:n 821:= 818:) 815:M 812:, 806:( 801:n 757:1 738:+ 733:2 728:2 716:X 710:Y 698:n 695:2 691:1 678:p 673:R 660:n 657:i 654:m 651:g 648:r 645:a 639:= 636:) 630:( 625:n 586:0 561:1 555:p 535:X 515:) 512:I 507:2 494:, 491:0 488:( 483:n 479:N 450:j 446:X 425:p 419:n 411:( 399:] 394:p 390:X 386:, 383:. 380:. 377:. 374:, 369:1 365:X 361:[ 355:X 335:p 329:n 306:+ 301:0 293:X 290:= 287:Y 260:) 254:( 242:) 238:( 228:· 221:· 214:· 207:· 190:. 176:. 147:) 143:( 105:) 101:( 55:) 51:(

Index

improve it
talk page
Learn how and when to remove these messages

orphan
link to it
introduce links
related articles
Find link tool
WikiProject Statistics

single source
talk page
improve this article
introducing citations to additional sources
"De-sparsified lasso"
news
newspapers
books
scholar
JSTOR
Learn how and when to remove this message
Karush–Kuhn–Tucker conditions
norm
estimators
convex function
Lasso
regression
arXiv
1303.0518

Text is available under the Creative Commons Attribution-ShareAlike License. Additional terms may apply.

↑