簡易檢索 / 詳目顯示

研究生: 余政遠
Yu, Zheng-Yunan
論文名稱: 共變異數反矩陣的估計
Estimation of covariance inverse
指導教授: 許文郁
Shu, Wun-Yi
口試委員: 胡毓彬
Hu, Yu-Pin
吳宏達
Wu, Hong-Dar
學位類別: 碩士
Master
系所名稱: 理學院 - 統計學研究所
Institute of Statistics
論文出版年: 2013
畢業學年度: 101
語文別: 中文
論文頁數: 68
中文關鍵詞: 共變異數反矩陣
外文關鍵詞: covariance inverse
相關次數: 點閱:53下載:0
分享至:
查詢本校圖書館目錄 查詢臺灣博碩士論文知識加值系統 勘誤回報
  • 針對共變異數反矩陣在高維度情況下的估計,近年來所提出的方式都是對於配適程度與模型簡化中間做一個折衷的方式,採用L1懲罰項的最大概似估計量,但是儘管L1的限制式能有效的找出稀疏的信號,卻會導致估計量有被壓縮的情況產生;為了改善這個問題,我們將找出稀疏的信號與估計這兩個步驟分開進行,希望能有效降低壓縮所導致的誤差。


    In recent years ,the estimate of covariance inverse matrix with high dimemsional which between model fitting and model simplifies .Many scholars have suggested that using maximum penalized likelihood function with L1-norm .The L1-norm can identify sparse signal effectively ,but lead to estimator be compressed .To improve this problem ,we will find the location of the spares signal and estimate these separately ,hoping to reduce the resulting of compression of the estimator .

    第一章 緒論 第二章 圖式模型選取 2.1 圖式模型 2.2 利用 Lasso 執行圖式選取 2.2.1 基本符號定義 2.2.2 相鄰性選取 2.2.3 六大假設 2.2.4 假設放寬 2.2.5 控制型一與型二錯誤 2.2.6 邊界選取法 2.2.7 懲罰參數的選取 第三章 稀疏性共變異數反矩陣估計法 3.1 Graphocal Lasso 估計法 3.1.1 對於估計的最佳化問題 3.1.2 對偶問題 3.1.3 座標下降演算法 3.1.4 懲罰參數的選取 3.2 設限的L1極小化方法 3.2.1 對於估計的最佳化問題 3.2.2 等價問題及處理最佳化問題方法 3.2.3 藉由交叉驗證選取懲罰參數 3.3 Location 估計法 3.3.1 對於估計的最佳化問題 3.3.2 最佳化問題的執行 3.3.3 懲罰參數以及起始點的選取 第四章 稀疏的線性識別分析 4.1 Fisher's 識別分析 4.2 線性規畫識別分析 4.2.1 對於估計的最佳化文提 4.2.2 執行線性規劃識別分析 4.2.3 藉由交叉驗證選取懲罰參數 4.2.4 擴展至三類別問題 第五章 數值模擬 5.1 圖式模型選取 5.2 共變異反矩陣 5.3 線性識別分析 5.4 利用線性規畫識別分析處理三類問題 第六章 討論及未來研究 參考文獻

    1. N. Meinshausen and P. Buhlmann, (2006). High dimensional graphs and variable selection with the lasso. Annals of statistics, 34:1436-1462

    2. Banerjee, O., Ghaoui, L. E. and D' Aspremont, A. (2007). Model selection through sparse maximum likelihood estimation for multivariate gaussian or binary data. Journal of Machine Learning Research 101 (to appear)

    3. Cai, T., Liu, W. & Luo, X. (2011). A constrained l_{1}
    minimization approach to sparse precision matrix estimation. J. American Statistical Association 106, 594-607.

    4. Cai, T. & Liu, W. (2011). A direct estimation approach to sparse linear discriminant analysis. J. American Statistical Association 106, 1566-1577.

    5. J. Friedman, T. Hastie, and R. Tibshirani. (2010). Regularization paths for generalized linear models via coordinate descent. Journal of Statistical Software, 33(1):1,.

    6. Vandenber, L., Boyd, S. & Wu, S.-P. (1998). Determinant maximization with linear matrix inequality constraints. SIAM J. Matrix Anal. Appl. 19, 499–533.

    7. Huang, J., Liu, N., Pourahmadi, M., and Liu, L. (2006), Covariance selection and estimation via penalised normal likelihood. Biometrika, 93, 85-98. [594]

    8. Bickel, P.J. and Levina, E.(2008b). Covariance regularization by thresholding. working paper.

    9. Bickel, P.J. and Levina, E.(2008a). Regularized estimation of large covariance matrices, The Annals of Statistics, Vol.36, pp.199-227.

    10. K. Madsen, H. B. Nielsen and M. C. Pmar. Bound Constrained Quadratic Programming via Piecewise Quadratic Functions Report IMM-1997-05, IMM, DTU ,DK-2800 I. yngby. 1996. Available as http://www.imm.dtu.dk/~hbn/publ/TR9705.ps

    11. Stephen Boyd, Laurent El Ghoui, Eric Feron, and Venkataramanan Balakrishnan. Linear matrix inequalities in system and control theory. Society for Industrial and Applied Mathematics.

    無法下載圖示 全文公開日期 本全文未授權公開 (校內網路)
    全文公開日期 本全文未授權公開 (校外網路)

    QR CODE