Re: Все программы одинаковы - дело не в программах


[ Комментарии ] [ Отправить комментарий ] [ Веб-конференция на сервере ТОРА-Центр ] [ FAQ ]

Написал Наблюдатель , September 25, 2000 at 18:11:40:

В комментарий к : Re: Все программы одинаковы - дело не в программах, отправленное Исследователь , September 25, 2000 at 16:15:58:

: Означают ли Ваши слова, что Вы предлагаете решать проблему значимости входов оптимизацией?
Нет, конечно. Извините, если неудачно сформулировал тезисы.

: А что если задача, которая Вам попалась, не прогнозируема в принципе? - Долго будете оптимизировать?
Рискую нарваться на обвинения в юношеском максимализме и некомпетентности, но прогнозируемой задачи, по-моему не м.б. в принципе (недостаток информации, отсутствие инструментов решения и т.д. - согласен)


: Мне кажется, что многослойные нейросети не подходят для задачи определения значимости входов.
Многослойные перцептроны - да (я об этом в предыдущем сообщении и говорил). Сети со специальными архитектурами (GRNN, CATNN, TDNN, параллельные перцептроны, Free-Forms сети - нейроны, не объединенные слоями, МГУА) позволяют с определенной ошибкой описать процесс и на определенном временном промежутке давать устойчиво точные прогнозы, при этом каким-то образом ранжируя входы по значимости. Т.е. с одной стороны мы имеем, что аналитический инструмент дает "хорошие" (по тем или иным критериям) прогнозы и при этом говорит о сравнительной значимости поступающей информации, и мы доверяем его прогнозам, но не доверяем его оценкам: я считаю, что это неправомерно.


: Можно пользоваться картами Кохонена или стат. методами.
Стат.методы по-моему чересчур требовательны к значимости получаемого результата, независимо от того "хорошие" или "плохие" при этом дают результаты. М/у тем практика в принципе интересует результат, а не то как он достигнут. Т.е. в адрес сетей я часто слышу обвинения, что они могут научиться на массиве сгенерированных случайных чисел. Я проводил эксперимент. Формировал временной ряд большой протяженности (1500-2000) с неизменным распределением случайной компоненты, которая составляла до 65% ряда, затем подавал сети лаговые входы (до -30). И она (сеть) давала достаточно устойчивый результат (распределение-то не менялось). Так и что с того, что ряд генерирован практически случайным образом - главное что обученная на нем сеть дает хорошие результаты.

: И только после обнаружения значимых входов подавать их на вход для количественной оценки взаимозависимостей.

Простой пример. Самый значимый вход в общем случае для нестационарного ряда - Lag-1 (если используются свойства самого ряда для прогнозирования). Результаты для практического анализа отвратные (высокий R^2,развороты ряда запаздывают (проще применять 2-хпериодную скользящую среднюю)).

: Кстати, именно поэтому я говорю, что архитектура сети не важна.
Вы же не применяете линейную регрессию при нелинейном характере поведения системы.
: Была бы закономерность - сеть найдется.
Вот именно, сеть позволяет давать прогнозы поведения закономерности не прибегая к ее статистически значимому аналитическому описанию.
Кстати, значимость падает с ростом числа независимых переменных (в общем случае). Так Вы хотите сказать, что статистически значимое описание поведения курса акций, например, на основе 1-2 показателей лучше, чем незначимое описание на основе группового учета большого числа аргументов сеткой?


: Но искать эту закономерность перебором архитектур (пусть и генетикой) - занятие неблагодарное, если не глупое.
Я ее ни ищу, а предполагая ее сущестование на основе препроцессинга, пытаюсь наиболее точно ее описать (даже в ущерб статистической значимости получаемого результата). Генетика позволяет это сделать наиболее быстро.


P.S. Я не фанат NN. Меня очень удручает постоянная их попытка свалиться в локальный экстремум (переучиться), т.к. сеть - наиболее мощный коррелятор из всех известных (мне по крайней мере) аналитических инструментов.

Общая схема решения задач для меня:
Препроцессинг. Как можно большое число показателей анализируем с разных сторон - выделяем подмножества данных, смотрим статистику, снижаем размерность (PolyAnalyst, SPSS). Обязательно прогоняю какие-то идеи по включению или исключению входов на перцептроне (больше всего нравится 3-хблоковая сеть Ворда с Гауссовой, комплементарной Гауссовой и тангенсной передаточными) - смотрю улучшается или ухудшается качество. Подготавливаю результаты, потом пью пиво и смотрю на них - иногда (редко, правда) рождаются гениальные идеи. Чаще всего приходится подготавливать разные комплекты исходных данных.

Обработка. Далее запускаю разные варианты решения задач на разных платформах (NGO, PolyAnalyst, NS2) смотрю качество на валидационных и тестовых множествах. Выбираю. Дальше либо объединяю в единую модель (в основном в Excel, до Ithink'а никак руки не дойдут) провожу имтационные расчеты, формирую рекомендации. Жалуются редко.

P.P.S. Не знаете ли алгоритмы выявления разладок во временных рядах? Буду очень признателен.



Комментарии:



Отправить комментарий

Имя:
E-Mail:

Тема:

Комментарий:

Веб-страничка(URL):
Название Веб-странички:
Картинка(URL):


[ Комментарии ] [ Отправить комментарий ] [ Веб-конференция на сервере ТОРА-Центр ] [ FAQ ]