бесплатно рефераты
 

Классификация сейсмических сигналов на основе нейросетевых технологий

Например, нейросеть на основе методики МГУА (метод группового учета

аргументов) позволяет на основе обучающей выборки построить зависимость

одного параметра от других в виде полинома (рис. 1.9). Такая сеть может не

только мгновенно выучить таблицу умножения, но и найти сложные скрытые

зависимости в данных (например, финансовых), которые не обнаруживаются

стандартными статистическими методами.

Кластеризация - это разбиение набора примеров на несколько компактных

областей (кластеров), причем число кластеров заранее неизвестно (рис.

1.10). Кластеризация позволяет представить неоднородные данные в более

наглядном виде и использовать далее для исследования каждого кластера

различные методы. Например, таким образом можно быстро выявить

фальсифицированные страховые случаи или недобросовестные предприятия.

Несмотря на большие возможности, существует ряд недостатков, которые

все же ограничивают применение нейросетевых технологий. Во-первых,

нейронные сети позволяют найти только субоптимальное решение, и

соответственно они неприменимы для задач, в которых требуется высокая

точность. Функционируя по принципу черного ящика, они также неприменимы в

случае, когда необходимо объяснить причину принятия решения. Обученная

нейросеть выдает ответ за доли секунд, однако относительно высокая

вычислительная стоимость процесса обучения как по времени, так и по объему

занимаемой памяти также существенно ограничивает возможности их

использования. И все же класс задач, для решения которых эти ограничения не

критичны, достаточно широк.

2. Постановка задачи классификации сейсмических сигналов.

Международная система мониторинга (МСМ), сформировавшаяся в мире за

последние десятилетия, предназначена для наблюдения за сейсмически

активными регионами. Основная часть информации фиксируется на одиночных

сейсмических станциях. Дальнейшая обработка этой информации позволяет

оценить различные физические параметры, характеризующие записанное событие.

Соответственно чем информативнее записанный сигнал, тем больше всевозможных

параметров можно определить и точнее. Относительно недавно для наблюдения

стали использовать группы сейсмических станций. Наиболее широкое применение

получили малоапертурные группы с диаметром приблизительно 3 км. за счет

того, что в этом случае можно пренебречь искажениями сигнала, возникающими

из-за неоднородности земной поверхности.

Причина использования сейсмических групп также заключается в том, что при

таком методе наблюдения можно применять специальные алгоритмы комплексной

обработки регистрируемой многоканальной сейсмограммы, которые обеспечивают

лучшее качество оценки параметров записанной информации, в сравнении с

одиночными сейсмическими станциями.

Одна из многочисленных задач, возникающих при региональном мониторинге,

это задача идентификации типа сейсмического источника или задача

классификации сейсмических сигналов. Она состоит в том, чтобы по

сейсмограмме определить причину возникновения зафиксированного события,

т.е. различить взрыв и землетрясение. Ее решение предусматривает разработку

определенного метода (решающего правила), который с определенной

вероятностью мог бы отнести записанное событие к одному из двух классов. На

рис.2.1 представлена схема постановки задачи.

Для решения этой задачи в настоящее время применяются различные

аналитические методы из теории статистического анализа, позволяющие с

высокой вероятностью правильно классифицировать данные. Как правило, для

конкретного региона существует своя база данных записанных событий. Она

включает в себя пример сейсмограмм характеризующих как землетрясения, так и

взрывы произошедшие в этом регионе с момента начала наблюдения. Все

существующие методы идентификации используют эту базу данных в качестве

обучающего множества, тем самым, улавливая тонкие различия характерные для

данного региона, методы, настраивают определенным образом свои параметры и

в итоге учатся классифицировать все обучающее множество на принадлежность к

одному из двух классов.

Один из наиболее точных методов основан на выделении дискриминантных

признаков из сейсмограмм и последующей классификации векторов признаков с

помощью статистических решающих правил. Размерность таких векторов

соответствует количеству признаков, используемых для идентификации и, как

правило, не превышает нескольких десятков.

Математическая постановка в этом случае формулируется как задача

разделения по обучающей выборке двух классов и ставится так: имеется два

набора векторов (каждый вектор размерности N): X1,…,Xp1 и Y1,…Yp2. Заранее

известно, что Xi (i=1,…,p1) относится к первому классу, а Yj (j=1,…,p2) -

ко второму. Требуется построить решающее правило, т.е. определить такую

функцию f, что при f(x) > 0 вектор x относился бы к первому классу, а при

f(x) < 0 - ко второму, где x({X1,…, Xp1, Y1,…, Yp2}.

3. Статистическая методика решения задачи классификации.

В данном разделе рассматривается методика определения типов

сейсмических событий, основанная на выделении дискриминантных признаков из

сейсмограмм и последующей классификации векторов признаков с помощью

статистических решающих правил.[8]

3.1 Выделение информационных признаков из сейсмограмм.

Исходные данные представлены в виде сейсмограмм (рис. 3.1) – это

временное отображение колебаний земной поверхности.

В таком виде анализировать информацию, оценивать различные физические

характеристики зафиксированного события достаточно трудно. Существуют

различные методы, специально предназначенные для обработки сигналов,

которые позволяют выделять определенные признаки, и, в дальнейшем, по ним

производить анализ записанного события.

Как правило, в большинстве из этих методов на начальном этапе

выполняется следующий набор операций:

1. Из всей сейсмограммы выделяется часть («временное окно»), которое

содержит информацию о какой-то отдельной составляющей сейсмического

события, например, только о P-волне.

2. Для выделенных данных последовательно применяется такие процедуры как:

а) Быстрое (дискретное) преобразование Фурье (БПФ);

б) Затем накладываются характеристики определенного фильтра, например,

фильтра Гаусса.

в) Обратное преобразование Фурье (ОБПФ), для того чтобы получить

отфильтрованный сигнал.

Далее, применяются различные алгоритмы для формирования определенного

признака. В частности, можно легко найти максимальную амплитуду колебания

сигнала, характеристику определяемую выражением max{peakMax – peakMin}.

Определив данный параметр для частоты f1 допустим для P волны, а также для

частоты f2 для S волны можно найти их отношение P(f1 )/S(f2), и

использовать его в качестве дискриминационного признака.

Применяя другие алгоритмы, можно построить большое количество таких

признаков. Однако, для задачи идентификации типа сейсмического события,

важными являются далеко не все. Из наиболее информативных можно выделить

такие признаки, как отношение амплитуд S и P волн, или доля мощности S фазы

на высоких (низких) частотах по отношению к мощности S фазы во всей полосе

частот.

Как правило, максимальное количество признаков, которое используется

для этой задачи составляет около 25 – 30.

3.2 Отбор наиболее информативных признаков для идентификации.

Как было показано выше, в сейсмограмме анализируемого события можно

выделить достаточно много различных характеристик, однако, далеко не все из

них могут действительно нести информацию, существенную для надежной

идентификации взрывов и землетрясений. Многочисленные исследования в

дискримининтном анализе показали, что выделение малого числа наиболее

информативных признаков исключительно важно для эффективной классификации.

Несколько тщательно отобранных признаков могут обеспечить вероятность

ошибочной классификации существенно меньшую, чем при использовании полного

набора.

Ниже представлена процедура отбора наиболее информативных

дискриминантных признаков, осуществляемая на основании обучающих реализаций

землетрясений и взрывов из данного региона.[8]

В начале каждый вектор xsj = (x(i)sj, i(1,p); где s(1,2 -номер класса

(s=1 - землетрясения s=2 - взрывы), j(1,ns , ns -число обучающих векторов

данного класса состоит из p признаков, выбранных из эвристических

соображений как предположительно полезные для данной проблемы

распознавания. При этом число p может быть достаточно велико и даже

превышать число имеющихся обучающих векторов в каждом из классов, но для

устойчивости вычислений должно выполняться условие p < n1+n2 . Процедура

отбора признаков - итерационная и состоит из p шагов на каждом из которых

число отобранных признаков увеличивается на единицу. На каждом

промежуточном k-м шаге процедура работает с n1+n2 k-мерными векторами

xsj(k) (k(p), сформированных из k-1 признаков, отобранных в результате

первых k-1 шагов и некоторого нового признака из числа оставшихся. Отбор

признаков основан на оценивании по векторам, состоящим из различных

признаков, стохастического расстояния Кульбака-Махаланобиса D(k) между

распределениями вероятностей векторов xsj(k):

D(k)= (m(k,1) - m(k,2))T S-1n1+n2 (k) (m(k,1) - m(k,2)), (6)

где: m(k,1), m(k,2) k - мерные векторы выборочных средних, вычисленные по k-

мерным векторам x1j(k) j(1,n1 и x2j(k) j(1,n2 первого и второго классов; S-

1n1+n2 (k) есть (k(k)- мерная обратная выборочная матрица ковариаций,

вычисленная с использованием всего набора k - мерных векторов x1j(k) j(1,n1

и x2j(k) j(1,n2

На первом шаге процедуры отбора значения функционала D(1) вычисляются

для каждого из p признаков. Максимум из этих p значений достигается на

каком то из признаков, который таким образом отбирается как первый

информативный. На втором шаге значения функционала D(2) вычисляются уже для

векторов, состоящих из пар признаков. Первый элемент в каждой паре - это

признак, отобранный на предыдущем шаге, второй элемент пары - один их

оставшихся признаков. Таким образом получаются p-1 значения функционала

D(2). Второй информативный признак отбирается из условия, что на нем

достигается максимум функционала D(2). Далее процедура продолжается

аналогично, и на k-м шаге процедуры отбора вычисляются значения функционала

D(k) по обучающим векторам, состоящим из k признаков. Первые k-1 компонент

этих векторов есть информативные признаки, отобранные на предыдущих k-1

шагах, последняя компонента - один из оставшихся признаков. В качестве k-го

информативного признака отбирается тот признак, для которого функционал

D(k) -максимален.

Описанная процедура ранжирует порядок следования признаков в

обучающих векторах так, чтобы обеспечить максимально возможную скорость

возрастания расстояния Махаланобиса (6) с ростом номера признака. Для

селекции множества наиболее информативных признаков на каждом шаге

k=1,2,...,p описанной выше итерационной процедуры ранжирования признаков по

информативности сохраняются номер j(k) в исходной таблице признаков и имя

выбранного признака, также вычисляется теоретическое значение полной

вероятности ошибки классификации P(k) по формуле Колмогорова-Деева [12].

P(k) = (1/2)[1 - Tk(D(k)/((k)) + Tk(-D(k)/ ((k))],

где k - число используемых признаков

(2(k) = [(t+1)/t][r1+r2+D(k)]; t = [(r1+r2)/r1r2]-1; r1=k/n1; r2=k/n2

(7)

Tk(z) = F(z) + (1/(k-1) ) (a1 - a2H1(z) + a3H2(z) - a4H3(z)) f(z),

F(z) - функция стандартного Гауссовского распределения вероятностей;

f(z) - плотность этого распределения; Hi(z) - полином Эрмита степени i,

i=1,2,3; aj, j=1,...,4 - некоторые коэффициенты, зависящие от k, n1, n2 и

D(k) [12]. Эта формула, как было показано в различных исследованиях, имеет

хорошую точность при размерах выборок порядка сотни и rs 0, то принимается, что вектор

x(k) принадлежит первому классу - (землетрясение); в противоположном случае

он принадлежит второму класс (взрыв).

Квадратичная дискриминационная функция описывается следующей формулой

[pic] (9)

где [pic], s=1,2 - обратные матрицы ковариаций обучающих выборок 1-го и 2-

го классов, вычисленные по обучающим векторам x1j(k) j(1,n1 и x2j(k)

j(1,n2, соответственно.

3.4 Оценка вероятности ошибочной классификации методом скользящего

экзамена.

Оценивание вероятности ошибочной идентификации типа событий

(землетрясение-взрыв), в каждом конкретном регионе представляет собой одну

из основных практических задач мониторинга. Эту задачу приходится решать на

основании накопления региональных сейсмограмм событий, о которых доподлинно

известно, что они порождены землетрясениями или взрывами. Эти же

сейсмограммы представляют собой "обучающие данные" для адаптации решающих

правил.

Из теории распознавания образов известно, что наиболее точной и

универсальной оценкой вероятности ошибок классификации является оценка,

обеспечиваемая процедурой “скользящего экзамена”(“cross-validation”) [11].

В методе скользящего экзамена на каждом шаге один из обучающих векторов

xsj , j(1,ns, s(1,2, исключается из обучающей выборки. Оставшиеся векторы

используются для адаптации (обучения) LDF или QDF или любого другого

дискриминатора. Исключенный вектор затем классифицируется с помощью

дискриминатора, обученного без его участия. Если этот вектор

классифицируется неправильно, т.е. относится к классу 2 вместо класса 1 или

наоборот, соответствующие “счетчики” (12 или (21 увеличиваются на 1.

Исключенный вектор затем возвращается в обучающую выборку, а изымается уже

другой вектор xs(j+1). Процедура повторяется для всех nl +n2 обучающих

векторов. Вычисляемая в результате величина

p0=((12 +(21)/( nl +n2 )

является состоятельной оценкой полной вероятности ошибочной классификации.

Значения дискриминатора, полученные в результате процедуры скользящего

экзамена для обоих классов, ранжируются по амплитуде: ранжированные

последовательности удобнее сравнивать с порогом и делать выводы о

“физических” причинах ошибочной классификации.

4. Обзор различных архитектур нейронных сетей, предназначенных для задач

классификации.

Приступая к разработке нейросетевого решения, как правило,

сталкиваешься с проблемой выбора оптимальной архитектуры нейронной сети.

Так как области применения наиболее известных парадигм пересекаются, то для

решения конкретной задачи можно использовать совершенно различные типы

нейронных сетей, и при этом результаты могут оказаться одинаковыми. Будет

ли та или иная сеть лучше и практичнее, зависит в большинстве случаев от

условий задачи. Так что для выбора лучшей приходится проводить

многочисленные детальные исследования.

Рассмотрим ряд основных парадигм нейронных сетей, успешно применяемых

для решения задачи классификации, одна из постановок которой представлена в

данной дипломной работе.

4.1 Нейрон – классификатор.

Простейшим устройством распознавания образов в нейроинформатике

является одиночный нейрон (рис. 4.1), превращающий входной вектор признаков

в скалярный ответ, зависящий от линейной комбинации входных переменных [1-

5, 7,10]:

Скалярный выход нейрона можно использовать в качестве т.н.

дискриминантной функции. Этим термином называют индикатор принадлежности

входного вектора к одному из заданных классов, а нейрон соответственно –

линейным дискриминатором. Так, если входные вектора могут принадлежать

одному из двух классов, можно различить тип входа, например, следующим

образом: если f(x) ( 0, входной вектор принадлежит первому классу, в

противном случае – второму. Рассмотрим алгоритм обучения подобной

структуры, приняв f(x)(x.

Итак, в p-мерном пространстве задана обучающая выборка x1,…,xn (первый

класс) и y1,…,ym (второй класс). Требуется найти такие p+1-мерный вектор w,

что для всех i=1,…,n и j=1,…,m w0+(xi,w)>0 и w0+(yj,w) 0. Если для данного l ( n+m оно

выполнено, переходим к следующем l (либо при l=n+m заканчиваем цикл),

если же не выполнено, то модифицируем w по правилу w=w+zl , или w=w+hTzl,

где T – номер модификации, а [pic] , например.

Когда за весь цикл нет ни одной ошибки ( т.е. модификации w), то

решение w найдено, в случае же ошибок полагаем l=1 и снова проходим цикл.

В некоторых простейших случаях линейный дискриминатор – наилучший из

возможных, а именно когда оба класса можно точно разделить одной

гиперплоскостью, рисунок 4.2 демонстрирует эту ситуацию для плоскости,

когда p=2.

4.2 Многослойный персептрон.

Возможности линейного дискриминатора весьма ограничены. Для решения

более сложных классификационных задач необходимо усложнить сеть вводя

дополнительные (скрытые) слои нейронов, производящих промежуточную

предобработку входных данных, таким образом, чтобы выходной нейрон-

классификатор получал на свои входы уже линейно-разделимые множества. Такие

структуры носят название многослойные персептроны [1-4,7,10] (рис. 1.3).

Легко показать, что, в принципе, всегда можно обойтись одним скрытым

слоем, содержащим, достаточно большое число нейронов. Действительно,

увеличение скрытого слоя повышает размерность пространства, в котором

выходной нейрон производит классификацию, что, соответственно, облегчает

его задачу.

Персептроны весьма популярны в нейроинформатике. И это обусловлено, в

первую очередь, широким кругом доступных им задач, в том числе и задач

классификации, распознавания образов, фильтрации шумов, предсказание

временных рядов, и т.д., причем применение именно этой архитектуры в ряде

случаев вполне оправдано, с точки зрения эффективности решения задачи.

Рассмотрим какие алгоритмы обучения многослойных сетей разработаны и

применяются в настоящее время.[7,10]. В основном все алгоритмы можно

разбить на две категории:

. Градиентные алгоритмы;

. Стохастические алгоритмы.

К первой группе относятся те, которые основаны на вычислении

производной функции ошибки и корректировке весов в соответствии со

значением найденной производной. Каждый дальнейший шаг направлен в сторону

антиградиента функции ошибки. Основу всех этих алгоритмов составляет хорошо

известный алгоритм обратного распространения ошибки (back propagation

error).[1-5,7,10].

[pic] ,где функция ошибки [pic]

Многочисленные модификации, разработанные в последнее время, позволяют

существенно повысить эффективность этого алгоритма. Из них наиболее

известными являются:

1. Обучение с моментом.[4,7]. Идея метода заключается в добавлении к

величине коррекции веса значения пропорционального величине

предыдущего изменения этого же весового коэффициента.

[pic]

2. Автономный градиентный алгоритм (Обучение с автоматическим

изменением длины шага (). [10]

3. RPROP (от resilient –эластичный), в котором каждый вес имеет свой

Страницы: 1, 2, 3, 4, 5, 6


ИНТЕРЕСНОЕ



© 2009 Все права защищены.