Эта статья является препринтом и не была отрецензирована.
О результатах, изложенных в препринтах, не следует сообщать в СМИ как о проверенной информации.
НОВЫЕ ФИЗИЧЕСКИЕ ПРИНЦИПЫ ДЕЙСТВИЯ: ЭКОНОФИЗИКА, НЕЙРОННЫЕ СЕТИ, ФРАКТАЛЬНЫЙ АНАЛИЗ – К ВОЗМОЖНОМУ ИХ ПРИМЕНЕНИЮ В МЕДИЦИНЕ КАТАСТРОФ (ОСНОВЫ НБИКС – формата)
1. Электронный ресурс – URL – https://ru.wikipedia.org/wiki/Эконофизика
2. Электронный ресурс – URL – https://ru.abcdef.wiki/wiki/Econophysics
3. Электронный ресурс – URL – https://science.uottawa.ca/mathstat/en
4. Электронный ресурс – URL – https://lenta.ru/articles/2009/09/08/fusion/
5. Тихонов Э.И. Методы прогнозирования в условиях рынка: учебное пособие. Невинномысск, 2006. 221 с.
6. Каста Дж. Связность, сложность и катастрофы: Пер. с англ. М. : Мир, 1982. 216 с.
7. Анищенко В.С., Астахов В.В., Вадивасова Т.Е., Нейман А.Б., Стрелкова Г.И., Шимановский-Гайер Л. Нелинейные эффекты в хаотических и стохастических системах. М., Ижевск : Институт Компьютерных исследований, 2003. 544 с.
8. Арнольд В.И. Теория катастроф. 3-е изд., доп. М. : Наука. Гл. ред. физ. мат. лит., 1990. 128 с.
9. Галушкин А.И. Теория нейронных сетей. Кн. 1: Учеб. Пособие для вузов. М. : ИПРЖР, 2001. 385 с.
10. Головко В.А. Нейронные сети: обучение, организация и применение. Кн.4:Учеб.пособие для вузов/Общая ред. А.И. Галушкина. М. : ИПРЖР, 2001. 256 с.
11. Розенблат Ф. Принципы нейродинамики: Персептрон и теория механизмов мозга. Пер. с англ. М. : Мир, 1965. 175 с.
12. Сигеру О., и др. Нейроуправление и его приложения / Пер. с англ. под ред. A.M. Ганшина. М. : ИПРЖР, 2001. 321 с.
13. Вороновский Г.К., Махотило К. В. Петрашев С. Н. Сергеев С. А.. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности. Xарьков : ОСНОВА, 1997. 112 с.
14. Еремин Д.М. Система управления с применением нейронных сетей // Приборы и системы. Управление, контроль, диагностика. 2001. № 9 С. 8–11.
15. Барский А.Б. Обучение нейросети методом трассировки // Труды VIII Всероссийской конференции «Нейрокомпьютеры и их применение»: Сб. докл., 2002. С. 862–898.
16. Белим С.В. Математическое моделирование квантового нейрона // Труды VIII Всероссийской конференции «Нейрокомпьютеры и их применение»: Сб. докл., 2002. С. 899–900.
17. Бутенко А.Х. и др. Обучение нейронной сети при помощи алгоритма фильтра Калмана // Труды VIII Всероссийской конференции «Нейрокомпьютеры и их применение »: Сб. докл., 2002. С. 1120–1125.
18. Лащев А.Я., Глушич Д.В. Синтез алгоритмов обучения нейронных сетей // Труды VIII Всероссийской конференции «Нейрокомпьютеры и их применение»: Сб. докл., 2002. С. 997–999.
19. Гусак А.Н. и др. Подход к послойному обучению нейронной сети прямого распространения // Труды VIII Всероссийской конференции «Нейрокомпьютеры и их применение»: Сб. докл., 2002. С. 931–933.
20. Шибхузов З.М. Конструктивный TOWER алгоритм для обучения нейронных сетей из 1П-нейронов // Труды VIII Всероссийской конференции «Нейрокомпьютеры и их применение»: Сб. докл., 2002. С. 1066–1072.
21. Медведев B.C., Потемкин В.Г. Нейронные сети. MATLAB 6 / Под общ. ред. к.т.н. В.Г. Потемкина. М. : ДИАЛОГ-МИФИ, 2002. 496 с.
22. Уоссермен Ф. Нейрокомпьютерная техника: теория и практика. M. : ЮНИТИ, 1992. 240 с.
23. Новиков А.В., и др. Метод поиска экстремума функционирования оптимизации для нейронной сети с полными последовательными связями //Труды VIII Всероссийской конференции «Нейрокомпьютеры и их применение»: Сб. докл., 2002. С. 1000–1006.
24. Бодянский Е.В., Кучеренко Е.И. Диагностика и прогнозирование временных рядов многослойной радиально-базисной нейронной сети // Труды VIII Всероссийской конференции «Нейрокомпьютеры и их применение»: Сб. докл., 2002. С. 69–72.
25. Генетические алгоритмы и машинное обучение. Режим доступа [http://www.math.tsu.ru/russian/center/ai_group/ai_collection/docs/faqs/ai/part5/faq3.html]
26. Генетические алгоритмы обучения. Режим доступа [http://www.hamovniki.net/~alchemist/NN/DATA/Gonchar/Main.htm]
27. Лекции по нейронным сетям и генетическим алгоритмам. Режим доступа [http://www.infoart.baku.az/inews/30000007.htm]
28. (EHIPS) Генетические алгоритм. Режим доступа [http://www.iki.rssi.ru/ehips/genetics.htm 29.08.2002]
29. Батищев Д.И. Генетические алгоритмы решения экстремальных задач. Воронеж : ВГУ, 1994. 135 с.
30. Пятецкий В.Е., Бурдо А.И. Имитационное моделирование процесса создания обучающихся систем. В сб.: Имитационное моделирование производственных процессов / Под. Ред. Мироносецкого Н.Б. Новосибирск, 1979. 68 с.
31. Дубовиков М.М., Старченко Н.В. Эконофизика и анализ финансовых временных рядов. «Эконофизика. Современная физика в поисках экономической теории» / Под. ред. В.В. Харитонова и А.А. Ежова. М. : МИФИ, 2007. С. 244–293.
32. Bachelier L. Theory of Speculation (Translation of 1900 French edn) / P.H. Cootner (Ed.) // The Random Character of Stock Market Prices, The MIT Press, Cambridge. 1964. P. 17–78.
33. Wiener N. Differential-space // J. Math. Phys. Math. Inst. Technol. 1923. № 2. P. 131–174.
34. Fama E.F. Mandelbrot and the stable Paretian hypothesis // J. Bus. 1963. (36). P. 420–429.
35. Sharpe W.F. Portfolio Theory and Capital Markets. N.Y. : McGraw-Hill, 1970. 341 p.
36. Black F., Scholes M. The pricing of options and corporate liabilities // J. Polit. Econ. 1973. № 3. P. 637–659.
37. Merton R. Theory of rational option pricing // Bell J. Econ. Manage. Sci. 1973. № 4. P. 141–183.
38. Mandelbrot B. Sur certains prix speculatifs: faits empiriques et modele base sur des processus stables additifs de Paul Levy // С. R. Acad. Sci. 1962. (254). P. 3968–3970.
39. Мандельброт Б. Фракталы, случай и финансы. М. ; Ижевск : НИЦ "Регулярная и хаотическая динамика", 2004. 256 с.
40. Mandelbrot B. Une classe de processus stochastiques homotheH tiques a soi; application a la hi climatohgique de H. E. Hurst // С R. Acad. Sci. 1965. (260). P. 3274–3277.
41. Лоскутов А.Ю., Бредихин А. А. ARCH-модели на финансовом рынке России // Обозрение прикладной и промышленной математики. 2004. Т. 11. № 3. С. 468–486.
42. Ширяев А.Н. Основы стохастической финансовой математики. М. : Фазис, 1998. 544 с.
43. Elliott R. N. Elliott's Masterworks: the Definitive Collection, Gainesville. New Classics Library, 1994.
44. Мерфи Дж. Технический анализ фьючерсных рынков. М. : Сокол, 1996. 592 с.
45. Prechter R.R., Frost A.J. ELLIOTT WAVE PRINCIPLE KEY TO MARKET BEHAVIOR. Gainesville, New Classics Library, 1978. 248 p.
46. Takens F. Dynamical Systems and Turbulence. Berlin : Springer-Verlag, 1981. 898 p.
47. Ежов А.А., Шумский С.А. Нейрокомпьютинг и его приложения в экономике и бизнесе. М. : МИФИ, 1998. 222 с.
48. Anderson P.V. More is different // Science, 1972. 177. P. 393–396.
49. Bak P. How Nature Works: The Science of Self-Organized Criticality. New York : Copernicus, 1996. 226 p.
50. Per Bak, M. Paczuski, M. Shubik, Price Variations in a Stock Market with Many Agents, Working paper 96-05-078, Santa Fe Institute Economics Research Programm, 1996.
51. Сорнетте Дидье. Как предсказывать крахи финансовых рынков. Критические события в комплексных финансовых системах. М. : Интернет-Трейдинг, 2003. 400 c.
52. Kolmogorov A. N. A refinement of previous hypotheses concerning the local structure of turbulence in a viscous incompressible fluid at high Reynolds number // J. Fluid Mech., 1962, vol. 13, P. 82–85.
53. Mandelbrot B. The fractal geometry of nature. Benoit B. Mandelbrot. W. H. Freeman and co., San Francisco, 1982. 460 p.
54. Кузнецов С.П. Динамический хаос. М. : Физматлит., 2001. 296 с.
55. Петерс Э. Хаос и порядок на рынках капитала. Новый аналитический взгляд на циклы, цены и изменчивость рынка / Пер. с англ. М. : Мир, 2000. 333 с.
56. Хайкин, Саймон. Нейронные сети: полный курс, 2-е издание. : Пер. с англ. М. : Издательский дом "Вильямс", 2006. 1104 с.
57. Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. 2-е изд., стереотип. М. : Горячая линия-Телеком, 2002. 382 с.
58. McCulloch W.S., Pitts W. A logical calculus of the ideas immanent in nervous activity // Bulletin of Mathematical Biophysics, 1943. vol. 5, P. 115–133.
59. Бэстенс Д.-Э., ван ден Берг В.-М., Вуд Д. Нейронные сети и финансовые рынки: принятие решений в торговых операциях. М. : ТВП, 1997. 236 с.
60. Dorizzi В., Duval J.M., Debar H. Utilisation de reseaux recurrents pour la prevision de consommation electrique // Proceedings of NeuroNimes, Journées internationals. 1992. № 5. P. 141–150.
61. Connor J., Atlas L. Recurrent neural networks and time series prediction // Conference on Neural Networks (IJCNN'91–Seattle), Seattle, Washington, July 1991. P. 301–306.
62. Kamijo K., Tanigawa T. Stock price pattern recognition: A recurrent network approach // Proceedings of the IEEE International Joint Conference on Neural Networks, 1990. P. 1215–1221.
63. Parker D.B. Optimal algorithms for adaptive networks: Second order back propagation, second order direct propagation and second order Hebbian learning // IEEE 1st International Conference on Neural Networks, San Diego, CA., 1987, vol. 2, P. 593–600.
64. Rumelhart D.E., Hinton G.E., Williams R.J. Learning representations of back-propagation errors // Nature (London), 1986. vol. 323. P. 533–536.
65. Roy S., Shynk J.J. Analysis of the momentum LMS algorithm // IEEE Transactions on Acoustics, Speech and Signal Processing, 1990. vol. ASSP–38. P. 2088–2098.
66. Hagiwara M. Theoretical derivation of momentum term in back-propagation // International Joint Conference on Neural Networks, Baltimore, 1992. vol. I, P. 682–686.
67. Jacobs R.A. Increased rates of convergence through learning rate adaptation // Neural Networks, 1988. vol. 1, P. 295–307.
68. Watrous R.L. Learning algorithms for connectionist networks: Aplied gradient methods of nonlinear optimization // First IEEE Infemational Conference on Neural Networks. San Diego, CA., 1987, vol. 2, P. 619–627.
69. Osowski S. Sieci neuronowe w ujeciu algorytmicznym. Warszawa : WNT, 1996. 350 p.
70. Osowski S. Sieci neuronowe. - Warszawa: Oficyna Wydawnicza PW, 1994.
71. Osowski S.t Stodolski KL, Bojarczak P. Fast second order learning algorithm for feedforward multilayer neural networks and its applications // Neural Networks, 1996. Vol. 9. P. 1583–1596.
72. Haykin S. Neural networks, a comprehensive foundation. N.Y. : Macmillan College Publishing Company, 1994.
73. Hertz J., Krogh A., Palmer R. Wstep do teorii obliczen neuronowych. Wyd. II. Warszawa : WNT, 1995.
74. Gill P., Murray W., Wright M. Practical Optimization. N.Y. : Academic Press, 1981.
75. Widrow B., Stearns S.D. Adaptive Signal Processing, Englewood Cliffs, N.Y. : Prentice-Hall, 1985.
76. Golub G., Van Loan С. Matrix computations. N.Y. : Academic Press, 1991.
77. Marquardt D. An algorithm for least squares estimation of nonlinear parameters, S1AM, 1963. P. 431–442.
78. Widrow В., Hoff M. Adaptive switching circuits // Proc. IRE WESCON Convention Record, 1960. P. 107–115.
79. Lawton J.H. More time means more variation // Nature. 1988. V.334. P. 563.
80. Hush D.R., Home. B.G. Progress in supervised neural networks: What's new since Lipmann? // IEEE Signal Processing Magazine, 1993. vol. 10. P. 8–39.
81. Vapnik V. N., Chervonenkis A. On the uniform convergence of relative frequencies of events to their probabilities // Theory of Probability and its Applications, 1971. Vol. 16. P. 264–280.
82. LeCun Y. Efficient Learning and Second-order Methods, A Tutorial at NIPS 93, Denver, 1993.
83. LeCun Y. Generalization and network design strategies // Technical Report CRG-TR-89-4, Department of Computer Science, University of Toronto, Canada, 1989.
84. Thimm G„ Fiesler E. Neural network initialization // Natural to Artificial Neural Computation / Eds. J. Mira, F. Sandoval. – Malaga : IWANN, 1995. P. 533–542.
85. Denoeux J., Lengalle R. Initializing back propagation networks with prototypes // Neural Networks, 1993. Vol. 6. P. 351–363.
86. Karayiannis N. Accelerating training of feedforward neural network using generalized hebbian rules for initializing the internal representation // IEEE Proc. ICNN, Orlando, 1994. P. 1242–1247.
87. Klimauskas G. Neural Ware–User manual Natick, USA : Neural Ware Inc. 1992.
88. Demuth K., Beale M. Neural Network Toolbox for use with Matlab. – Natick : The MathWorks Inc. 1992.
89. Yule G.U. On a method of investigating periodicities in disturbed series, with special reference to Wolfer's sunspot numbers // Phil Trans. Royal Society London 1927. A226. 267 p.
90. Box G.E.P., Jenkins G.M. Time Series Analysis: Forecasting and Control. San Franisco : Holden-Day. 1970.
91. Tong H. Threshold Models in Non-linear Time Series Analysis. Lectures Notes Statistics, Vol. 21, Springer, 1983.
92. Granger С.W.J., Anderson T.W. Introduction to Bilinear Time Series Models. Gottingen : Vandenhoeck und Ruprecht., 1978.
93. Priestley M.B. State-dependent models: A general approach to non-linear time series analysis // Journal of Time Series Analysis, 1980. Vol. 1. P. 1.
94. Weigend A.S., Huberman B.A., Rumelhart D.E. Predicting the future: A connectionist approach // International Journal of Neural Systems, 1990. Vol. 1. P. 193–209.
95. Kouam A., Badran F. and Thiria S. Approche methodologique pour l'etude de la prevision a l'aide de reseaux de neurons // Proceedings of Neuro-Nimes, 1992.
96. Colin A. Exchange rate forecasting at Citibank London // Proceedings of Neural Computing, London. 1991.
97. Colin A. Machine learning techniques for foreign exchange trading // Proceedings PASE 1991, Zurich, Dec. Parallel problem solving-applications in statistics and economics, 115 p.
98. Baestaens D.-E. Distributional analysis to model atypical behaviour// European Journal of Operational Research, April 1994. Vol.74. № 4. P. 230–242.
99. Stein R. Preprocessing data for neural networks // AI Expert, 1993. P. 32–37.
100. Windsor С.G., Harker A.H. Multi-variate financial index prediction: A neural network study // Euro Conference 88. 1988. P. 357.
101. Stein R. Selecting data for neural networks // AI Expert, 1993. P. 42–47.
102. Varfis A., Versino С. Univariate economic time series forecasting by connestionist methods // Proc. International Neural Network Conference, July, Paris, 1990.
103. Varfis A., Versino С. Murtagh F. Neural networks for economic time series forecasting // Neural networks for statistical and economic data. PASE. 1990. P. 155–159.
104. DeGroot С. Nonlinear time series analysis with connectionist networks // IPS Research Report № 93-03, Diss. ETH № 10038, Zurich. 1993.
105. Lapedes A., Farber R. Nonlinear signal processing using neural networks: prediction and system modeling // TR LA-UR-87-2662, Los Alamos, 1987.
106. Wurtz D., DeGroot С. Forecasting time series with connectionist nets: Applications in statistics, signal processing and economies // Lecture Notes in Artificial Intelligence, 604, Heidelberg : Springer, 1992.
107. Barron A. Predicted squared error: a criterion for automatic model selection // Self-Organizing Methods in Modeling, N.Y. : Marcel Dekker, 1984.
108. Moody J.E. The effective number of parameters: An analysis of generalization and regularization in nonlinear learning systems // ANIPS 4, 1992. P. 847–854.
109. Gorman R.P., Sejnowski T.J. Analysis of hidden units in a layered network trained to classify sonar targets // Neural Networks, Vol. 1, 1988, P. 75–89.
110. Хакен Г. Синергетика:Иерархия неустойчивостей в самоорганизующихся системах: Пер. с англ. М. : Мир, 1985. 423 с.
111. Малинецкий Г.Г., Потапов А.Б., Подлазов А.В. Нелинейная динамика: Подходы, результаты, надежды. Изд. 2-е. М. : КомКнига, 2009. 280 с.
112. Головко В., Чумерин Ю. Нейросетевые методы определения спектра Ляпунова хаотических процессов // «Нейрокомпьютеры: Разработка и применение», 2004. № 1.
113. Головко В.А., Савицкий Ю.В. Нейросетевые методы определения спектра Ляпунова // Международный журнал «Компьютинг». 2002. № 1. С. 80–86.
114. Головко В.A., Чумерин Н.Ю., Савицкий Ю.В. Нейросетевой метод оценки спектра Ляпунова по наблюдаемым реализациям // Вестник Брестского государственного технического университета. 2002. №4. С. 66–70.
115. Ширяев В.И. Финансовые рынки: Нейронные сети, хаос и нелинейная динамика: Учебное пособие. Изд. 2-е, испр. и доп. М. : Книжный дом «ЛИБРОКОМ», 2009. 232 с.
116. Мусалимов В.М., Резников С.С., Чан Нгок Чау. Специальные разделы высшей математики. СПб : Санкт-Петербургский Государственный Университет Информационных технологий Механики и Оптики (СПбГУ ИТМО), 2006. 80 с.
117. Постнов Д.Э., Павлов А.Н., Астахов С.В. Методы нелинейной динамики: Учеб. пособие для студ. физ. фак. Саратов 2008. 120 с.
118. Безручко Б.П., Смирнов Д.А. Математическое моделирование и хаотические временные ряды. Саратов : Гос УНЦ «Колледж», 2005. 320 с.
119. Кузнецов С.П. Динамический хаос. М. : Физматлит., 2001. 296 с.
120. Антипов О.И., Неганов В.А., Потапов А.А. Детерминированный хаос и фракталы в дискретно-нелинейных системах. М. : Радиотехника, 2009. 235 с.
121. Grassberger P., Procaccia I. Measuring the strangeness of strange attractors // Physica D. № 9, 1983.
122. Rosenstein M.T., Colins J.J., De Luca C.J. Reconstruction expansion as a geometry-based framework for choosing proper delay time // Physica D. – 73, 1994, P. 82–89.
123. Fraser A.M., Swinney H.L. Independent coordinates for strange attractor from mutual information // Physical Review A. – 33, 1986, P. 1134–1140.
124. Abarbanel H.D.I., Brown R., Sidorovich J., Tsimring L. The analysis of observed chaotic data in physical systems // Review of Modern Physics, Vol. 65. № 4. 1993. P. 1331–1392.
125. Головко В.А. Нейросетевые методы обработки хаотических процессов // VII Всероссийская научно-техническая конференция «Нейроинформатика 2005»: Лекции по нейроинформатике. М. : МИФИ, 2005. С. 43–91.
126. Takens F. Detecting Strange Attractors in Turbulence // Dynamical Systems and Turbulence. Lecture Notes in Mathematics. Berlin : Springer – Verlag, 1981. 898 p. P. 366–381.
127. Дмитриев А.С., Ефремова Е.В., Кузьмин Л.В., Атанов Н.В. Генерация потока хаотических импульсов в динамической системе с внешним (периодическим) воздействием // Радиотехника и электроника, 2006. Т.51. № 5. С. 593–604.