چکیده:
در پژوهشهاي انجام شده در زمينه پيش بيني بحران مالي و ورشكستگي، هدف و تاكيد اصلي، ارائه مدلهاي مناسب و دقيق براي پيش بيني ورشكستگي بوده و كمتر به انتخاب متغيرهاي پيش بين و روش هاي مناسب آن پرداخته شده است. بنابراين، پژوهش حاضر به بررسي و مقايسه سودمندي روشهاي مختلف انتخاب متغيرهاي پيش بين درپيش بيني بحران مالي شركت هاي پذيرفته شده در بورس اوراق بهادار تهران مي پردازد. در اين راستا، عملكرد روشهاي انتخاب متغير، شامل آزمون t، تحليل مميزي گام به گام، تحليل عاملي، ريليف، مبتني بر روكشي و مبتني بر بردارهاي پشتيبان، بررسي و با هم مقايسه ميشود. طبقه بندي كننده هاي استفاده شده نيز شامل شبكه هاي عصبي مصنوعي، ماشين بردار پشتيبان و آدابوست (بوستينگ) ميباشد. به طور كلي، يافته هاي پژوهش حاكي از سودمندي استفاده از روشهاي انتخاب متغير نسبت به عدم استفاده از اين روشها در پيش بيني بحران مالي و همچنين وجود تفاوت معنادار بين ميزان سودمندي اين روش هاست. به عبارت ديگر، در صورت استفاده از روشهاي انتخاب متغيرهاي پيش بين، ميانگين دقت افزايش و خطاي نوع اول و دوم كاهش مي يابد. افزون بر اين، يافته هاي پژوهش حاكي از برتري روش انتخاب متغير مبتني بر روكشي نسبت به ساير روش هاي انتخاب متغيرهاي پيش بين است.
خلاصه ماشینی:
افزون براين ، با توجه به انجام نشدن پژوهشي با استفاده از روش هـاي تجميعـي، در اين پژوهش از طبقه بندي کننده تجميعي بوستينگ براي پيش بيني بحران مالي شرکت هـاي پذيرفتـه شـده در بورس اوراق بهادار تهران استفاده و عملکرد آن با شبکه هاي عصبي و ماشين بردار پشتيبان مقايسه شـده است .
"Bankruptcy Prediction Using Support Vector Machine with Optimal Choice of Kernel Function Parameters", Expert Systems with Applications, Vol. 28, pp.
"An Application of Support Vector Machines in Bankruptcy Prediction Model", Expert Systems with Applications, Vol. 28, pp.
"An Improved Boosting Based on Feature Selection for Corporate Bankruptcy Prediction", Expert Systems with Applications, Vol. 41, No. 5, pp.
59- 82 يادداشت ها 1 Leano 2 Lo 3 Foster 4 Etemadi 5 Atiya 6 Tung 7 Tsai 8 Shin and Lee 9 Hung 10 Canbas 11 Min 12 Gaspar- Cunha 13 Das and Nayak 14 Lindenbaum 15 Hall 16 Curse of Dimensionality 17 Filter 18 Wrapper 19 Beaver 20 Altman 21 Deakin 22 Fulmer 23 Zmijewski 24 Odom 25 Fernandez-Castro and Smith 26 Sarkar and Sriram 27 Alfaro 28 Chen 29 Kim and Kang 30 Sun 31 Jardin 32 Wang 33 Liang 34 Relief 35 Nearest Hit 36 Nearest Miss 37 Cross Validation 38 Hill-Climing 39 Best-first 40 Kohavi and John 41 Recursive Feature Elimination 42 Guyon 43 Support Vector Machine - SVM 44 Overfitting 45 AdaBoost 46 Vapnik 47 10-fold Cross Validation 48 Hu