РОССИЙСКАЯ АКАДЕМИЯ НАУК
УРАЛЬСКОЕ ОТДЕЛЕНИЕ
КОМИ НАУЧНЫЙ ЦЕНТР
ИНСТИТУТ СОЦИАЛЬНО-ЭКОНОМИЧЕСКИХ
И ЭНЕРГЕТИЧЕСКИХ ПРОБЛЕМ СЕВЕРА
Г.П.Шумилова, Н.Э.Готман, Т.Б.Старцева
ПРОГНОЗИРОВАНИЕ ЭЛЕКТРИЧЕСКИХ НАГРУЗОК
ПРИ ОПЕРАТИВНОМ УПРАВЛЕНИИ
ЭЛЕКТРОЭНЕРГЕТИЧЕСКИМИ СИСТЕМАМИ
НА ОСНОВЕ НЕЙРОСЕТЕВЫХ СТРУКТУР
СЫКТЫВКАР, 2008 УДК 621.311.016.3:004.032.26 Прогнозирование электрических нагрузок при оперативном управлении электроэнергетическими системами на основе нейросетевых структур.Сыктывкар: КНЦ УрО РАН, 2008.
Монография посвящена вопросам прогнозирования электрических нагрузок ЭЭС с использованием аппарата искусственных нейронных сетей и нечеткой логики. Кратко изложена теория новых информационных технологий, применяемых для построения нейросетевых моделей прогнозирования нагрузок. Рассмотрены два типа моделей оперативного, краткосрочного и долгосрочного прогнозирования нагрузки по энергосистеме в целом, реализованные на персональных ЭВМ, дан их сравнительный анализ по точности прогноза, а также модель сбалансированного прогноза узловых нагрузок в двух временных диапазонах – внутрисуточном и суточном.
Приведены результаты тестирования разработанных нейросетевых моделей на графиках нагрузки ОДУ Урала и, в связи с этим, даны рекомендации по использованию данных моделей в других энергосистемах.
Книга предназначена для специалистов и исследователей, занимающихся вопросами оперативного управления режимами электроэнергетических систем.
Табл. 16. Ил. 31. Библиогр. 77 назв.
А в т о р ы: Г.П.Шумилова, Н.Э.Готман, Т.Б.Старцева Ответственный редактор доктор технических наук П.И.Бартоломей Р е ц е н з е н т ы:
доктор технических наук В.Л.Никитенков, кандидат технических наук М.И.Успенский Введение Прогнозирование электрических нагрузок является важной областью исследования в электроэнергетике. Оно необходимо для решения практически всего спектра задач текущего планирования и оперативного управления режимами функционирования электроэнергетической системы (ЭЭС). На его основе рассчитываются исходные и оптимальные электрические режимы ЭЭС, оценивается их надежность, экономичность, качество электроэнергии [2]. Точность прогноза нагрузок влияет на экономичность загрузки генерирующего оборудования, и, следовательно, на стоимость электроэнергии.
Прогнозирование нагрузки проводится в различных временных диапазонах. В работе [24], например, временные диапазоны прогнозирования классифицируются следующим образом: в пределах текущих суток – оперативный прогноз; вперед на сутки-неделюмесяц – краткосрочный; на месяц-квартал-год – долгосрочный. Авторы [31] реализуют временные периоды прогнозирования в несколько иных вариантах, а именно: очень краткосрочный прогноз (от нескольких секунд до часа вперед); краткосрочный прогноз (от часа до недели вперед); среднесрочный прогноз (от недели до года вперед); долгосрочный прогноз (от года до 20 лет вперед). В [2] предложены только две градации временных диапазонов прогнозирования. Интервал времени от предстоящих суток до недели – краткосрочное прогнозирование, а от месяца до года – долгосрочное. Как видно, пока не существует точной классификации временных периодов прогнозирования. Авторы данной работы придерживаются классификации из работы [24].
Первые публикации по методам прогнозирования электрических нагрузок ЭЭС появились на рубеже десятых-двадцатых годов прошлого века [6]. Казалось бы, почти за вековой период проблема должна быть решена. Тем не менее поток публикаций по прогнозированию электрических нагрузок продолжает расти. Основная причина этого явления заключается в более высоких требованиях рынка электроэнергии к показателям качества прогнозных расчетов (точности, достоверности, быстродействию и т.п.), достижение которых возможно при современном уровне информационной обеспеченности ЭЭС.
К настоящему времени разработано большое число методов и моделей прогнозирования электрических нагрузок как традиционных, так и нетрадиционных. Их обзор дан в [2, 6, 53]. Традиционные статистические модели могут быть условно разделены на регрессионные модели и модели на основе временных рядов. Подробное обсуждение этих моделей приведено в [53].
С развитием теории новых информационных технологий в последнее десятилетие было предложено решение задачи прогнозирования нагрузки нетрадиционными методами, а именно, с использованием моделей на основе экспертных систем и искусственных нейронных сетей [47, 48, 56, 63, 67]. Предпочтение таких моделей традиционным обусловлено тем, что не требуется построения модели объекта, не теряется работоспособность при неполной входной информации. Они обладают устойчивостью к помехам, имеют высокое быстродействие.
В работе представлены результаты исследований прогнозирования электрических нагрузок ЭЭС с применением искусственных нейронных сетей и нечеткой логики как одних из наиболее совершенных и перспективных направлений решения данной задачи.
Теоретический подход к рассмотренным вопросам сочетается с результатами экспериментальных исследований, проведенных с использованием графиков нагрузки региональных энергосистем.
В первой главе рассмотрены отдельные вопросы теории новых информационных технологий, используемых для совершенствования методов и моделей прогнозирования электрических нагрузок, а именно: искусственные нейронные сети (ИНС), нечеткие множества, нечеткие нейронные сети (ННС) и инверсия нейронных сетей.
Во второй главе даны методы и нейросетевые модели оперативного (в пределах часа), краткосрочного (на сутки и неделю вперед) и долгосрочного (на месяц) прогнозирования нагрузки ЭЭС на основе ИНС и ННС. Приведены результаты тестирования разработанных моделей на графиках нагрузки ОДУ Урала, даны рекомендации по применению разработанных моделей прогнозирования в других энергосистемах.
В третьей главе представлен метод прогнозирования нагрузки ЭЭС и ее узлов, основанный на инверсии ИНС и позволяющий получить сбалансированный прогноз нагрузки по энергосистеме в целом и ее узлам, а также результаты внутричасового и суточного прогнозирования нагрузок узлов по нейросетевым моделям.
Основное содержание монографии изложено в работах [17, 28, 34-43, 70].
Глава Новые информационные технологии для прогнозирования электрических нагрузок ЭЭС 1.1. Искусственные нейронные сети Термин «нейронные сети» сформировался в 40-х годах ХХ в. в сфере исследователей, изучавших принципы организации и функционирования биологических нейронных сетей [13]. В настоящее время в этой области науки разработан ряд моделей, названных искусственными нейронными сетями (ИНС) или просто нейронными сетями (НС).
Обычно под ИНС понимается набор элементарных нейроподобных преобразователей информации – нейронов, соединенных друг с другом каналами обмена информацией для их совместной работы. В настоящее время сформировались две ветви исследований [13]. Первая, нейробиологическая, основывается на моделировании работы живого мозга, имея целью объяснить, каким образом в нем отображаются сложные объекты и связи между ними, как устанавливается соответствие между хранящейся и поступающей из вне информацией, как мозг обучается и другие вопросы, касающиеся функционирования мозга. Второе направление исследований направлено на решение с помощью ИНС задач переработки информации в различных областях знаний, особенно в плохо формализуемых, где существующие модели субъективны и неадекватны. Наиболее впечатляющие результаты использования ИНС достигнуты при распознавании образов [например, 7, 8, 11, 14, 15], при создании самообучающихся экспертных систем [например, 1, 13], при построении ассоциативной памяти [например, 13, 19, 22, 33] и при решении оптимизационных задач большой размерности [13]. При разработке нейросетевых методов решения таких задач необязательно добиваться строгого соблюдения биологического правдоподобия, хотя сложившаяся терминология в основном заимствована из нейробиологии [13].
Исследования по ИНС находятся в стадии интенсивного развития. Ежегодно проводится ряд международных конференций и форумов по нейросетям. С 1992 г. в России начал выпускаться журнал «Нейрокомпьютер».
Рассмотрим более подробно, что представляют собой искусственные нейроны и нейронные сети.
Нейрон. Так как ИНС состоит из совокупности нейронов, определим, что такое нейрон и как он работает.
Биологический нейрон (рис.1.1) - нервная клетка - имеет тело, называемое сомой. От тела отходят многочисленные отростки нервных волокон двух типов – тонкие, густо ветвящиеся дендриты, и более толстый аксон. Входные сигналы поступают в клетку через синапсы, а выходной сигнал отводится аксоном через его многочисленные нервные окончания. Те, в свою очередь, контактируют с сомой и дендритами других нейронов, образуя очередные синапсы [29].
Нервный импульс от одного нейрона по аксону достигает синаптического контакта с другим нейроном и приводит к высвобождению некоторого количества медиатора (химического вещества), который достигает мембраны другой клетки. Медиатор воздействует на клеточную мембрану, вызывая изменение ее электрического потенциала. Чем больше химического вещества, тем сильнее изменение потенциала. Синапсы отличаются друг от друга размерами и возможностью концентрации медиатора. Поэтому импульсы одинаковой величины, поступающие на входы нервной клетки через различные синапсы, могут возбуждать ее в разной степени. Можно сказать, что каждому входу клетки соответствуют численные коэффициенты (веса), пропорционально количеству медиатора, выделяемого на соответствующем синапсе. Далее в зависимости от степени возбуждения нейрон генерирует выходные сигналы. Такая упрощенная схема функционирования биологического нейрона положена в основу структуры искусственного.
Формальный нейрон (рис.1.2), отражающий основные свойства биологического нейрона – это элементарный преобразовательный элемент, имеющий множество входов, на которые Рис.1.2. Модель формального нейрона С точки зрения реализации модели нейрона параметр смещения q часто представляют в виде единичного входа xn +1 = 1 с весом wn +1 = q.
На втором такте суммарное возбуждение пропускается через активационную (преобразуюy = f (net ). Преобразующая щую) функцию, в результате чего определяется выходной сигнал функция, как правило, должна удовлетворять двум условиям: 1) f (net ) – монотонная (обычно неубывающая) функция; 2) f (net ) 1.
Наиболее часто используются следующие преобразующие функции (табл. 1.1).
Параметр a подбирается пользователем. Его значение влияет на форму функции активации.
Графики сигмоидной функции и гиперболического тангенса сильно зависят от значения a. При малых величинах графики будут достаточно пологими, но по мере роста значения a крутизна графиков увеличивается. При a® сигмоидная функция превращается в функцию ступенчатого типа.
График сигмоидной функции качественно близок к изображению передаточной характеристики биологического нейрона. Очевидно, пороговая функция более удобна при аппаратной реализации нейрона, тогда как сигмоидная предпочтительна в аналитических исследованиях, поскольку она монотонна, всюду дифференцируема и имеет непрерывные производные любого порядка. Кроме этого, ценным свойством сигмоидной функции является простое выражение для ее производной:
Таким образом, каждый нейрон характеризуется вектором весовых множителей и параметрами преобразующей функции. Нейрон способен получать сигналы и в зависимости от их интенсивности и собственных характеристик выдавать выходной сигнал. При этом, если выходной сигнал нейрона близок к единице, то говорят, что нейрон возбужден.
Нейронная сеть. К настоящему времени предложено большое количество способов для объединения нейронов в нейронную сеть. Обычно нейроны в сети расположены слоями. Слой может состоять из одного нейрона. Выделяют входной слой, на который подается возбуждающий сигнал, выходной слой, с которого снимают переработанный сетью сигнал и промежуточные или скрытые слои (называют скрытыми поскольку они «не видны» пользователю).
Рассмотрим более подробно основные типы нейронных сетей.
1.Сети прямого распространения (персептроны). Сети этого типа состоят из нескольких слоев нейронов: входного слоя, выходного слоя и нескольких «скрытых» слоев. Нейроны каждого слоя не связаны между собой и взаимодействуют лишь с нейронами предыдущего и последующего слоев (рис.1.3).
Функционирование сети прямого распространения очень простое. Входной сигнал, подаваемый на сеть, поступает на нейроны входного слоя, проходит по очереди через все слои и выделяется с выходов нейронов выходного слоя. По мере распространения сигнала по сети он претерпевает ряд преобразований, которые зависят от его начального значения, от преобразующей функции и величин весов связей.
Выходной сигнал yj некоторого нейрона в j-том слое в сети прямого распространения может быть выражен с помощью следующей формулы:
где yi – выходной сигнал i–го нейрона предыдущего слоя, wij – весовой коэффициент, выражающий степень влияния, оказываемого выходным сигналом i–го нейрона предыдущего слоя на j-ый нейрон рассматриваемого слоя; q j – cмещение в j-ом слое, n – количество нейронов в предыдущем слое.
Такая сеть используется для решения задач распознавания и классификации, прогнозирования, идентификации и т.д.
2. Самоорганизующиеся карты Кохонена (kohonenmap). Сеть, которую предложил Т. Кохонен [60], состоит из двух слоев (рис.1.4). Первый выполняет функцию распределения входного сигнала между нейронами второго слоя. Нейроны второго слоя (называемого иногда слоем Кохонена) расположены на плоскости и связаны с нейронами своего слоя связями, величина которых зависит от расстояния между нейронами и обычно имеет вид «мексиканской шляпы» (рис.1.5).
Этот вид связей обеспечивает взаимное усиление сигнала близкими нейронами и ослабление влияния далеких нейронов, что делает более контрастной границу раздела возбужденных нейронов от остальных, ложное возбуждение которых этим подавляется.
Рис.1.4. Нейронная сеть Кохонена Результатом работы сети Кохонена при подаче на входной слой некоторого вектора является определение нейрона, который возбужден более других (нейрон-победитель). Этот нейрон более других близок к предъявленному образу, поскольку выход каждого нейрона второго слоя определяется как сумма взвешенных входов сети. В своей простейшей форме сеть Кохонена функционирует по принципу: «Победитель берет все». Это означает, что для данного входного вектора только один нейрон второго слоя сети выдаст на выходе логическую единицу, все остальные выдают ноль. Однако после выделения победителя происходит скрытая от пользователя операция коррекции весов между первым и вторым слоями. Дело в том, что сеть Кохонена обучается без учителя, т.е. сеть сама вырабатывает правила обучения путем выделения особенностей из набора входных данных. Поэтому, каждый новый образ, предъявленный сети, может изменить силы связей. После предъявления сети достаточного количества образов все нейроны как бы разбиваются на подмножества, каждое из которых «откликается» на образы соответствующего класса (т.е. сеть способна осуществлять классификацию предъявляемых образов), причем переход от одного подмножества к другому происходит непрерывно. В этом заключается свойство сети к обобщению, т.е. достаточно правильно распознавать объекты, которые ранее сети не предъявлялись, но в какой-то мере обладающие свойствами известных классов.
Сети Кохонена используются при решении задач кластеризации, распознавания образов, классификации и др.
3. Сети Хопфилда (Hopfield net).
Сеть Хопфилда [57] – однослойная сеть. Все нейроны связаны друг с другом связями wij (рис.1.6); причем сигнал с выхода нейрона может подаваться на его же вход и необязательно wij = wji. Каждая компонента входного вектора xi подается на соответствующий i-ый нейрон. Поскольку сигнал с выхода каждого нейрона подается на входы всех остальных, входной вектор начинает циркулировать, преобразуясь, по сети до тех пор, пока сеть не придет в устойчивое состояние (т.е. когда все нейроны на каждом последующем цикле будут вырабатывать тот же сигнал, что и на предыдущем). Очевидно, возможны случаи бесконечной циркуляции входного вектора без достижения устойчивого состояния.
Авторами [57] были найдены достаточные условия сходимости сети Хопфилда к устойчивому состоянию. Оказывается, если матрица весов связей между нейронами симметрична (т.е. для каждой пары нейронов i и j выполняется условие wij = wji ) и имеет нули на главной диагонали wij =0 (т.е. сигнал с выхода нейрона не должен подаваться на его вход), то у сети существует устойчивое состояние.
Сети Хопфилда имеют многочисленные применения. Ряд из них связан со способностью этих же сетей запоминать, а затем восстанавливать даже по неполной входной информации различные образы. Другие применения связаны с возможностью использования сетей Хопфилда для решения оптимизационных задач.
Существуют различные методы и правила обучения ИНС [13].
Методы обучения ИНС. Первое направление классификации методов обучения сетей – по способам использования учителя.
С учителем. Сети предъявляются примеры входных данных и выходных. Сеть преобразует входные данные и сравнивает свой выход с желаемым. После этого проводится коррекция весов с целью получить лучшую согласованность выходов.
Без учителя. (Обучение с последовательным подкреплением знаний). В этом случае сети не дается желаемое значение выхода, а вместо этого сети ставится оценка, хорош выход или плох.
Сети сами вырабатывают правила обучения путем выделения особенностей из набора входных данных.
Второе направление классификации методов обучения – по использованию элементов случайности.
Детерминистические методы. В них шаг за шагом осуществляется процедура коррекции весов сети, основанная на использовании текущих их значений, входов сети, выходов нейронов и некоторой дополнительной информации, например, значений желаемых выходов сети. Рассматриваемый далее алгоритм обучения, основанный на обратном распространении ошибки, является примером детерминистического обучения.
Стохастические методы обучения. Они основываются на использовании случайных изменений весов в ходе обучения. Рассматриваемый далее алгоритм Больцмановского обучения является примером стохастического обучения.
Правила обучения ИНС. Правила обучения определяют закон, по которому сеть должна изменять свои веса в процессе обучения.
Правило Хебба (D.Hebb). Большинство методов обучения основываются на общих принципах обучения нейросетей, развитых Дональдом Хеббом [54]. Принципы Хебба можно сформулировать следующим образом [13]: «Если два нейрона одновременно активны, увеличьте силу связи между ними», что можно записать как где Dwij – величина изменения веса wij ; yi - уровень возбуждения i-го нейрона; yj – уровень возбуждения j-го нейрона; f – преобразующая функция; g – константа, определяющая скорость обучения. Большинство обучающих правил основаны на этой формуле.
Дельта-правило. Оно известно, как правило снижения квадратичной ошибки и было предложено в [74]. Дельта-правило используется при обучении с учителем где dj – желаемый выход j-го нейрона.
Изменения силы связей происходит в соответствии с ошибкой выходного сигнала (dj - уj) и уровнем активности входного элемента yi.
Дельта-правило, называемое еще обратным распространением ошибки (Back-Propagation), используется в ИНС с двумя и более слоями.
ART-правило. Теория адаптического резонанса (ART) была развита в [46]. ART – это обучение без учителя, когда самоорганизация происходит в результате отклика на набор входных образцов. ART–сеть способна к классификации образов. ART использует концепцию долговременной и кратковременной памяти для обучения ИНС. В долговременной памяти хранятся реакции на образы, которым сеть была обучена, в виде векторов весов. В кратковременную память помещается текущий входной образ, ожидаемый образ, классификация входного образа. Ожидаемый образ выбирается из долговременной памяти всякий раз, когда на вход ИНС подается новый паттерн (образец). Если они схожи в соответствии с определенным критерием, сеть классифицирует его как принадлежащий к существующему классу. Если они различны, формируется новый класс, в котором входной вектор будет первым членом класса.
Такое обучение называют состязательным обучением. Простейший тип состязательного обучения определяется правилом «победитель берет все». Элемент с наилучшим уровнем активации называют «победитель». Когда он выбран, ИНС добавляет черты вводимого образа в члены долговременной памяти путем повторного прогона вперед-назад через веса долговременной памяти. Этот процесс назван резонансом.
Правило Кохонена. Т.Кохонен из Хельсинского технологического института использовал концепцию состязательного обучения для развития обучающего правила «без учителя» в ИНС типа карты Кохонена (см. рис.1.3).
Правило Кохонена заключается в следующем. Сначала выбирается победитель по стратегии «победитель берет все». Поскольку выход j-го нейрона определяется скалярным произведением ( X, Wj) входного вектора X с вектором весов связей между входным слоем и j-м нейроном, то он зависит от угла между векторами X, Wj. Поэтому выбирается нейрон, вектор весов Wj которого наиболее близок к входному вектору X (другими словами, выбирается наиболее активный нейрон). Далее конструируется новый вектор Wj так, чтобы он был ближе ко входному вектору X, т.е.
где k – количество входов сети, g - константа обучения (зависит от топологии расстояния до центрального нейрона и уменьшается с количеством входов).
Больцмановское обучение. Суть его состоит в подкреплении обученности в соответствии с целевой функцией изменения выхода ИНС. Это обучение использует вероятностную функцию для изменения весов, которая традиционно имеет вид распределения Гаусса, хотя могут использоваться и другие распределения.
Правило Больцмана – это новая концепция обучения, которая часто называется «правилом отжига» – по аналогии со способом обработки металла. Металл нагревается до высокой температуры, а затем медленно охлаждается, позволяя каждой молекуле занять положение с минимальной энергией. Перед началом обучения начальные веса сети распределяются случайным образом.
Больцмановское обучение обычно выполняется в несколько этапов.
1. Искусственной «температуре» Т придают большое начальное значение.
2. Через сеть пропускают входной вектор, и по выходу вычисляют целевую функцию.
3. Случайным образом изменяют вес в соответствии с распределением Гаусса:
P( z ) = exp(- z 2 / T 2 ), где z - изменение веса. Заметим, что величина случайного изменения веса может определяться различными способами, например, с использованием распределения Коши.
4. Снова вычисляют выход и целевую функцию.
5. Если значение целевой функции уменьшилось (улучшилось), то сохраняют изменение веса. Если же нет, и величина ухудшения целевой функции составляет D С, то вероятность сохранения изменения веса вычисляется следующим образом. Величина Р( D С) – вероятность изменения D С в целевой функции, определяется с использованием распределения Больцмана где К – константа, аналогичная константе Больцмана, выбирается в зависимости от условий задачи, Т – искусственная температура. Затем выбирают случайное число U, используя равномерное распределение от нуля до единицы. Если P(DC ) > U, то изменение веса сохраняется, иначе изменение веса равно нулю.
Шаги 3–5 повторяют для каждого из весов сети, при этом постепенно уменьшают температуру Т, пока не будет достигнуто приемлемо низкое значение целевой функции. После этого повторяют весь процесс обучения для другого входного вектора. Сеть обучается на всех векторах, пока целевая функция не станет допустимой для всех них.
В [51] показано, что изменение температуры должно быть обратно пропорционально логарифму времени (чтобы обеспечить сходимость целевой функции к глобальному минимуму).
где t - искусственное время. Этот результат означает, что скорость сходимости целевой функции не велика. Следовательно, время обучения может быть очень большим.
Алгоритмы обучения ИНС. Рассмотрим алгоритмы обучения трех основных типов ИНС, описанных выше.
Обучение сетей прямого распространения. Для обучения сети нужно знать значение dj (j = 1, 2, …, n) - желаемые выходы, которые сеть должна выдавать при поступлении на ее вход возбуждающего вектора X.
Согласно методу наименьших квадратов ошибка функционирования сети при этих данных определяется как где yj – выход сети, p – индекс образца в обучающей выборке.
Математическая задача заключается в нахождении таких значений весовых коэффициентов, при которых ошибка функционирования сети для обучающей выборки была бы минимальной:
Для уменьшения ошибки следует изменить веса сети по следующему правилу:
h - константа, характеризующая скорость обучения (0NP