Синергетические базы знаний
Автор: Евгенев Г.Б.
Журнал: Онтология проектирования @ontology-of-designing
Рубрика: Прикладные онтологии проектирования
Статья в выпуске: 1 (39) т.11, 2021 года.
Бесплатный доступ
Современные базы знаний должны в значительной мере соответствовать человеческому мышлению и реальности мира. Синергетические базы знаний создают возможность совместного использования как «жёстких» вычислений, которые требуют точности и единственности решения, так и «мягких» вычислений, допускающих заданную погрешность и неопределённость для конкретной задачи. Предложена методология создания синергетических систем для представления знаний с использованием технологий искусственного интеллекта. Методология основана на методах создания баз знаний и может использоваться для разработки систем проектирования и управления в отраслях промышленности. Предложена модель представления лингвистических переменных. Рассмотрен метод создания нечётких баз знаний и этапы механизма логического вывода. Описан нечёткий вывод на примере механизма Мамдани. Предложена функциональная схема создания систем нечёткого логического вывода на основе структурированного чёткого модуля знаний. Рассмотрен метод создания баз знаний для реализации нейросетевых моделей. Приведён пример базы знаний для обучения нейронных сетей.
Мягкие вычисления, базы знаний, модуль знаний, интеллектуальные системы, системы проектирования
Короткий адрес: https://sciup.org/170178879
IDR: 170178879 | DOI: 10.18287/2223-9537-2021-11-1-76-88
Текст научной статьи Синергетические базы знаний
Актуальным направлением развития интеллектуальных систем (ИС) является совместное использование методов и средств различных способов представления знаний. В настоящее время широко развиты работы по созданию гибридных систем [1-2]. Гибридизация представляет собой такое объединение методов и технологий, когда различные блоки системы реализуют какой-либо метод решения задач и взаимодействуют между собой. Гибридизация охватывает методы, объединяемые термином «мягкие вычисления» ( softcomputing ), которые включают: нечёткие системы [3, 4], нейронные сети [4-8], генетические алгоритмы [4, 9], и др. [10]. Представляется целесообразным расширить круг объединяемых методов, в который включить методы чётких вычислений «классического» искусственного интеллекта (ИИ) [11].
Синергетические системы ИИ обладают такими основными характеристиками, как множеством неоднородных компонентов и гибких взаимосвязей между компонентами, активностью, автономностью, семиотической природой взаимосвязей, открытостью, высоким эволюционным потенциалом. Архитектура и технологии синергетического ИИ отличаются неоднородностью, гибридностью, объединением различных информационных технологий [12].
1 Словарь базы знаний
Для создания синергетической системы ИИ необходимо рассмотреть возможность гибридизации передовых методов теории программирования и классического ИИ [13]. Ядром для построения синергетической системы ИИ являются чёткие знания классического ИИ. Нечёткие знания строятся на базе лингвистических переменных. Для наполнения математи- ческих знаний семантикой над ними нужно надстроить систему чётких знаний. При этом формальные математические переменные, связанные с переменными словаря базы знаний (БЗ), получают смысловое содержание.
Фундаментом для построения чётких знаний является словарь. Словарь имеет имя и методы, обеспечивающие сортировку и поиск слов, а также импорт слов из текстовых документов. Словарь состоит из слов, каждое из которых обладает именем-идентификатором, общепринятым наименованием и типом (целый, действительный или символьный). Имеются методы добавления и удаления слов, а также определения входимости слов в модули знаний (МЗ). Со словами могут быть связаны ассоциативные списки допустимых значений. Ассоциативные списки, также как и слова, имеют имя-идентификатор, наименование списка и тип значений. С ассоциативными списками связаны методы добавления, удаления, сортировки и поиска списка. Списки состоят из элементов, каждый из которых должен иметь значение и может быть добавлен или удалён.
На рисунке 1 приведён пример фрагмента словаря и ассоциативных списков для построения нечёткой БЗ. На основе словаря строятся МЗ [14]. Каждый МЗ имеет наименование, имя-идентификатор, имя предусловия и версию. С модулем связаны методы добавления, выбора модуля-аналога, трансляции и тестирования модуля, определения входимости МЗ в БЗ и другие модули, а также удаления модуля. МЗ имеет свой словарь, представляющий собой подмножество терминов из словаря БЗ и включающий входные и выходные переменные. Предусловие определяет область определения модуля и содержит набор взаимосвязанных логических выражений.

Рисунок 1 - Пример фрагмента словаря для построения нечёткой базы знаний
На рисунке 2 приведён пример модуля расчёта по формуле. Модуль имеет наименование «Расчёт функции принадлежности нечёткого числа по Гауссу» и имя «RsFNNG». Механизм модуля реализует формула FNN = 2.718^(-a_*(quant-quantn)^2).

Рисунок 2 - Пример модуля знаний с механизмом вычисления по формуле
Словарь модуля включает входные переменные: a - константа функции принадлежности, quant - число (базовое значение), quantn - число (нечёткое значение), а также выходную переменную FNN - функция принадлежности нечёткого числа и управляющую переменную VidFnPr $ - вид функции принадлежности. Модуль применяется, если вид функции принадлежности имеет значение «функция Гаусса» [14].
2 Лингвистические переменные
Системы нечётких продукций строятся на основе понятия «лингвистическая переменная» [15]. Лингвистической переменной называется пятерка { x,T(x), X,G, M }, где x - имя переменной; T(x) - множество имён лингвистических значений переменной x , каждое из которых является нечётким множеством на множестве X ; G - синтаксическое правило для образования имён значений x ; M - семантическое правило для ассоциирования каждой величины значения с её понятием.
Например, лингвистическую переменную «возраст человека», можно представить так: х: «возраст»;
X: множество целых чисел из интервала [1, 120];
T(X): значения «молодой», «зрелый», «старый»;
-
G: «очень», «не очень» - модификатор возраста (например, «очень молодой», «не очень
старый» и пр.);
M: правило, определяющее вид функции принадлежности для каждого значения из мно жества T.
В структуре чётких знаний лингвистическая переменная представляется в виде структурированного МЗ (см., например, таблицу 1).
Таблица 1 – Пример МЗ лингвистической переменной «возраст человека»
имя |
наименование |
тип |
вид |
x — |
Переменная x |
REAL |
вход |
Age_G$ |
Модификаторы возраста |
STRING |
выход |
Age_T$ |
Значения возраста |
STRING |
выход |
FnPr |
Функция принадлежности |
REAL |
выход |
a — |
Константа функции принадлежности |
REAL |
локал. |
dax |
Разность а - х |
REAL |
локал. |
dxb |
Разность х - в |
REAL |
локал. |
b_ |
Константа 2 функции принадлежности |
REAL |
локал. |
В описываемом модуле использована шкала возрастов. Функция принадлежности равна 1: для значения «молодой» – до 30 лет, для значения «зрелый» – от 30 до 60 лет, для значения «старый» – от 60 лет. Модификатор возраста действует при отклонениях от этих значений в пределах 5 лет (например, до 35 лет – не очень молодой).
Например, для значения возраста «молодой» используется функция принадлежности класса L , которая определяется как:
Г 1, т ^ а,
Ь(^«,6) = < Й> а ^я О,
.
Структуры МЗ для расчёта этой функции имеют следующий вид.
МЗ: MRsFPrL - Метод расчёта функции принадлежности класса L
Предусловия запуска имя наименование тип условие
Age _ T$ Значения возраста STRING молодой
Входные свойства имя наименование тип значение x_ Переменная x REAL a_ Константа функции принадлежности REAL b_ Константа 2 функции принадлежности REAL
Механизм - Внешний Метод
Метод: RsFPrL Расчет функции принадлежности класса L
Согласование свойств внешнего метода и свойств МЗ
a_ |
Константа функции принадлежности |
= |
a_ |
Константа функции принадлежности |
b_ |
Константа 2 функции принадлежности |
b_ |
Константа 2 функции принадлежности |
|
x_ |
Переменная x |
= |
x_ |
Переменная x |
FnPr |
Функция принадлежности |
= |
FnPr |
Функция принадлежности |
Выходные свойства имя наименование тип значение
FnPr Функция принадлежности REAL
Используемые здесь константы в соответствии с принятой шкалой назначаются с помощью модуля.
МЗ: NzPrAge - Назначение параметров возраста
Предусловия запуска имя наименование тип условие
Механизм - Формула a_ = 30, b_ = 60
Выходные свойства имя наименование тип значение b_ Константа 2 функции принадлежности REAL a_ Константа функции принадлежности REAL
МЗ: NzAgG - Назначение модификатора возраста
Предусловия запуска имя наименование тип условие
Входные свойства
имя |
наименование |
тип |
значение |
FnPr |
Функция принадлежности |
REAL |
Механизм - Таблица
Конф игурация свой ств в таблице
FnPr Age_G$
Таблица
1 |
очень |
[0,1) |
не очень |
Выходные свойства
имя |
наименование |
тип |
значение |
Age_G$ |
Модификаторы возраста |
STRING |
3 Нечёткие базы знаний
Основой для проведения операции нечёткого логического вывода является база правил, содержащая нечёткие высказывания в форме «ЕСЛИ-ТО», и функции принадлежности для соответствующих лингвистических переменных (термов). При этом должны соблюдаться следующие условия.
-
1) Существует хотя бы одно правило для каждого лингвистического терма выходной переменной.
-
2) Для любого терма входной переменной имеется хотя бы одно правило, в котором этот терм используется в качестве предпосылки (левая часть правила).
В противном случае имеет место неполная база нечётких правил.
Пусть в базе правил имеется m правил вида:
R 1 : ЕСЛИ x 1 это A 11 … И … x n это A 1n , ТО y это B 1
R i : ЕСЛИ x 1 это A i1 … И … x n это A in , ТО y это B i
Rm: ЕСЛИ x1 это Ai1 … И … xn это Amn, ТО y это Bm, где xk, k=1..n – входные переменные; y – выходная переменная; Aik – заданные нечёткие множества с функциями принадлежности.
Результатом нечёткого вывода является чёткое значение переменной y* на основе заданных чётких значений x k .
В общем случае механизм логического вывода включает четыре этапа: введение нечёткости (фазификация), нечёткий вывод, композиция и приведение к чёткости, или дефазификация. Алгоритмы нечёткого вывода различаются главным образом видом используемых правил, логических операций и разновидностью метода дефазификации.
Нечёткий вывод приведён на примере механизма Мамдани (Mamdani) [1,2]. Это наиболее распространённый способ логического вывода в нечётких системах. В нём используется ми- нимаксная композиция нечётких множеств. Данный механизм включает в себя: процедуру фазификации; нечёткий вывод; композицию, использующую максимальную композицию нечётких множеств; дефазификацию, или приведение к чёткости. Используются несколько методов дефазификации, например, метод среднего центра, или центроидный метод.
Пример применения нечёткой БЗ в задаче определения времени стирки на машине.
На входе БЗ имеются чёткие переменные: масса белья в килограммах ( Mass ) со множеством чисел из интервала от 0 до 5 и температура воды в градусах ( Tv ) со множеством значений от 0 до 90. На выходе определяется чёткая переменная - время стирки в минутах ( Dlt ) со множеством значений от 0 до 150. С массой белья связана лингвистическая переменная «количество белья» со значениями «много» и «мало». С температурой связана лингвистическая переменная «температура воды» со значениями «высокая» и «низкая». Со временем стирки связана лингвистическая переменная «длительность», имеющая значения «высокая» и «малая».
БЗ состоит из двух правил:
R 1 : ЕСЛИ <количество_белья> = <много> И
<температура_воды> = <высокая>, ТО
<длительность> = < высокая>
R 2 : ЕСЛИ <количество_белья> = <мало> И
<температура_воды> = <низкая>, ТО
<длительность> = < малая>.
Метод фазификации переменных осуществляется с помощью соответствующих МЗ.
МЗ Выполнение нечёткого вывода для стиральной машины
ранг |
имя |
наименование |
0 |
NzImFn |
Назначение имени функции |
1 |
NzZnPr22 |
Назначение значения низкая переменной температура воды |
1 |
NzZnPr21 |
Назначение значения мало переменной количество белья |
1 |
NzZnPr11 |
Назначение значения много переменной количество белья |
1 |
NzZnPr12 |
Назначение значения высокая переменной температура воды |
2 |
MFuzif21 |
Метод фазификации 1 переменной 2 правила |
2 |
MFuzif22 |
Метод фазификации 2 переменной 2 правила |
2 |
MFuzif12 |
Метод фазификации 2 переменной 1 правила |
2 |
VpR1 |
Выполнение правила R1 |
2 |
VpR2 |
Выполнение правила R2 |
2 |
MFuzif11 |
Метод фазификации 1 переменной 1 правила |
3 |
MRsTnR2 |
Метод расчёта Т-нормы для правила R2 |
3 |
MRsTnR1 |
Метод расчёта Т-нормы для правила R1 |
4 |
RsDlml |
Расчёт малой длительности |
4 |
RsDlvs |
Расчёт высокой длительности |
Входные свойства имя наименование тип значение
Mass Масса, кг REAL 0.7
Tv Температура, град REAL 20.1
Выходные свойства имя наименование тип значение
Dlt Длительность, мин REAL 37.5
4 Нейросетевые модели знаний
Для построения ИС традиционно применяются два основных подхода. Первый основан на правилах. При этом подходе необходимо заранее знать весь набор закономерностей, описывающих предметную область. Он детально описан в [14]. При использовании другого подхода, основанного на примерах, надо иметь достаточное количество примеров для настройки адаптивной системы с заданной степенью достоверности. Нейронные сети (НС) представляют собой пример такого подхода. С точки зрения экспертного программирования НС может рассматриваться как механизм одного из правил [13]. При построении БЗ такое правило может использоваться совместно со всеми другими типами правил. Комбинированный подход обеспечивает получение правил на основе примеров, сохранённых в базе данных (БД). Это – извлечение знаний из данных.
Искусственные нейронные сети НС предназначены для решения широкого круга задач: принятия решений, распознавания образов, идентификации, прогнозирования, оптимизации, управления сложными объектами. Применительно к рассматриваемой тематике наибольший интерес представляет применение НС для принятия решений и управления. Эта задача близка к задаче классификации. Классификации подлежат ситуации, характеристики которых поступают на вход НС. На выходе сети при этом должен появиться признак решения, которое она приняла. При этом в качестве входных сигналов используются различные критерии описания состояния управляемой системы.
Формальным нейроном называется элемент, используемый в узлах НС. Ему может быть поставлена в соответствие структурная схема, представленная на рисунке 3.

Рисунок 3 - Структурная схема формального нейрона
Схема формального нейрона включает n входных блоков умножения на коэффициенты w i , один сумматор и выходной блок функционального преобразования. Функция, которую реализует выходной блок, получила название функции активации. Коэффициенты w i получили название синаптических коэффициентов или коэффициентов межнейронной связи.
Формальный нейрон может быть представлен с помощью двух МЗ. Первый реализует входные блоки и сумматор, а второй – функцию активации. В качестве простого примера модуля, осуществляющего расчёт взвешенной суммы входов нейрона, приведено внешнее представление МЗ RSNeur11. Модуль не имеет предусловия запуска. Такой модуль запускается на исполнение, когда будут определены все входные свойства. В качестве входных свойств выступают входные переменные и синаптические коэффициенты. Выходом модуля является взвешенная сумма входов нейрона, которая вычисляется по формуле.
МЗ: RSNeur11 - Расчёт взвешенной суммы входов нейрона 1 слоя 1
Предусловия запуска имя наименование тип условие
Входные свойства
имя |
наименование |
тип |
значение |
w14 |
Вес связи 14 |
REAL |
|
x_2 |
Входная переменная 2 |
REAL |
|
x_0 |
Входная переменная 0 |
REAL |
|
x_3 |
Входная переменная 3 |
REAL |
|
x_8 |
Входная переменная 8 |
REAL |
|
x_9 |
Входная переменная 9 |
REAL |
|
w11 |
Вес связи 11 |
REAL |
|
w13 |
Вес связи1 3 |
REAL |
|
w12 |
Вес связи 12 |
REAL |
|
x_1 |
Входная переменная 1 |
REAL |
|
w16 |
Вес связи 16 |
REAL |
|
w17 |
Вес связи 17 |
REAL |
|
w15 |
Вес связи 15 |
REAL |
|
w19 |
Вес связи 19 |
REAL |
|
w18 |
Вес связи 18 |
REAL |
|
x_6 |
Входная переменная 6 |
REAL |
|
x_4 |
Входная переменная 4 |
REAL |
|
x_5 |
Входная переменная 5 |
REAL |
|
x_7 |
Входная переменная 7 |
REAL |
Механизм - Формула s11=x_0+x_1*w11+x_2*w12+x_3*w13+x_4*w14+x_5*w15+x_6*w16+x_7*w17+x_8*w18+x_9*w19
Выходные свойства
имя |
наименование |
тип |
значение |
s11 |
Взвешенная сумма входов нейрона 1 слоя 1 |
REAL |
Вычисление значения функции активации осуществляется модулем RFNeur11. Модуль имеет предусловие, которое определяет вид выбранной функции. В данном случае используется логистическая функция. Входные свойства модуля включают параметр функции активации и взвешенную сумму входов нейрона. Параметр функции активации выбирается из БД со свойствами сети нейронов, а взвешенная сумма входов вычисляется предыдущим МЗ.
МЗ: RFNeur11 - Расчёт функции активации нейрона 1 слоя 1 Предусловия запуска имя наименование тип условие
VidAktFn$ Вид активационной функции STRING логистическая
Входные свойства имя наименование тип значение a_ Параметр функции активации REAL s11 Взвешенная сумма входов нейрона 1 слоя 1 REAL
Механизм - Формула y11 = 1/(1 + 2.71828^(-a_*s11))
Выходные свойства имя наименование тип значение y11 Активационная функция нейрона 1 слоя 1 REAL
Приведённые выше два МЗ реализуют формальную модель нейрона. С помощью описанной технологии возможно генерировать модели с другими количествами входных переменных и синаптических коэффициентов, а также с другими активационными функциями и с другими моделями нейронов. Хотя один нейрон и способен выполнять простейшие процедуры распознавания, эффективность нейронных вычислений проявляется в нейронных сетях. Простейшая сеть состоит из группы нейронов, образующих слой (см. рисунок 4).
X <

Y
Рисунок 4 - Простейшая однослойная нейронная сеть
Вершины-круги, представленные на рисунке 4, предназначены для распределения входных сигналов. Каждый элемент из множества входов X соединён с каждым искусственным нейроном Ne i отдельной связью, которой приписан вес (синаптический коэффициент). Удобно считать веса элементами матрицы W . Матрица имеет n строк и m столбцов, где n – число входов, а m – число нейронов.
Для построения продукционной модели НС генерируется метод, состоящий из набора МЗ. Этот метод в дальнейшем может использоваться в качестве модуля в сложных БЗ.
На рисунке 5 представлена функциональная модель НС в соответствии со стандартом IDEF0 . Функция модели заключается в вычислении компонент y j вектора Y . Для этого в качестве входных переменных используются компоненты x i вектора X. Механизмом выполнения этой функции является МЗ и элементы матрицы весов W , которые хранятся в БД. НС характеризуется параметрами: количество входов и выходов, количество слоёв и нейронов в каждом слое, параметры активационной функции.
Ниже приведён пример внешнего представ
Параметры сети
X
Вычисление
нейронной сети
Модуль знаний
Y
Рисунок 5 - Функциональная модель нейронной сети
ления автоматически сгенерированного метода расчёта простой однослойной НС, включающей три нейрона, десять входных и три выходных переменных.
МЗ RsNeurNet - Расчёт нейронной сети
ранг |
имя |
наименование |
0 |
VzPrNet |
Вызов параметров сети |
0 |
NUstN |
Начальная установка номера входной переменной |
0 |
NUstPer |
Начальные установки переменных |
1 |
MVvW |
Метод ввода весовых коэффициентов 1-го слоя |
2 |
RSNeur21 |
Расчёт взвешенной суммы входов нейрона 2 слоя 1 |
2 RSNeur11 Расчёт взвешенной суммы входов нейрона 1 слоя 1
-
2 RSNeur31 Расчёт взвешенной суммы входов нейрона 3 слоя 1
-
3 RFNeur21 Расчёт логистической активационной функции нейрона 2 слоя1
-
3 RFNeur11 Расчёт логистической активационной функции нейрона 1 слоя1
-
3 RFNeur31 Расчёт логистической активационной функции нейрона 3 слоя1
-
4 FrOut11 Формирование выхода однослойной сети с одним нейроном
-
4 FrOut12 Формирование выхода однослойной сети с двумя нейронами
-
4 FrOut13 Формирование выхода однослойной сети с тремя нейронами
Входные свойства
имя |
наименование |
тип |
значение |
x_10 |
Входная переменная 10 |
REAL |
|
x_8 |
Входная переменная 08 |
REAL |
|
x_7 |
Входная переменная 07 |
REAL |
|
x_4 |
Входная переменная 04 |
REAL |
|
x_6 |
Входная переменная 06 |
REAL |
|
x_5 |
Входная переменная 05 |
REAL |
|
x_9 |
Входная переменная 09 |
REAL |
|
x_2 |
Входная переменная 02 |
REAL |
|
x_3 |
Входная переменная 03 |
REAL |
|
x_1 |
Входная переменная 01 |
REAL |
Выходные свойства
имя |
наименование тип значение |
y_1 |
Выходная переменная 1 REAL 0. |
y_2 |
Выходная переменная 2 REAL 0 |
y_3 |
Выходная переменная 3 REAL 0 |
МЗ метода автоматически ранжируются в порядке определения необходимых для их работы переменных. В данном случае в ранге 0 размещаются модуль вызова из БД параметров сети и служебные модули начальных установок переменных. Ранг 1 включает метод ввода весовых коэффициентов, вызываемых из БД.
Ранг 2 состоит из модулей расчёта взвешенных сумм входов всех нейронов, а ранг 3 – из модулей расчёта активационных функций для этих нейронов. В заключительном ранге 4 располагаются модули формирования выходных переменных.
Важнейшим компонентом построения БЗ на основе НС является обучение. В качестве примера построения алгоритма обучения рассмотрен метод обучения, названный δ -правило [5]. Пусть имеется обучающая выборка, состоящая из пар векторов ( Xk , Yk ), k = 1, 2, … p . НС называется обученной на данной обучающей выборке, если при подаче на входы сети каждого вектора Xk на выходах всякий раз получается соответствующий вектор Yk . Обучение заключается в итерационной подстройке матрицы весов W , последовательно уменьшающей ошибку в выходных векторах. Алгоритм включает следующие шаги.
Шаг 0. Проинициализировать элементы весовой матрицы W случайными значениями.
Шаг 1. Подать на входы один из входных векторов Xk и вычислить его выход Yk .
Шаг 2. Если выход правильный ( Y = Yk ), перейти на шаг 4. Иначе, вычислить вектор ошибки – разницу между заданным и полученным значениями выхода: δ = Yk – Y.
Шаг 3. Матрица весов модифицируется по следующей формуле: wt+1 ij = wt ij + ν·δ·x i . Здесь t и t +1 – номера соответственно текущей и следующей итераций; ν – коэффициент скорости обучения (0< ν ≤1); x i – i -я компонента входного вектора Xk ; j – номер нейрона в слое.
Шаг 4. Шаги 1–3 повторяются для всех обучающих векторов. Обучение завершается, когда сеть перестаёт ошибаться.
МЗ ObNeurNet - Обучение нейронной сети ранг имя наименование
-
0 NUstN Начальная установка номера входной переменной
-
0 NUstNc Начальная установка номера цикла обучения
-
0 VzPrNet Вызов параметров сети
-
1 PerAdrOb Переадресация цикла обучения
-
1 VvNObVb Ввод номера обучающей выборки
-
2 MVvXob Метод ввода входных переменных обучающей выборки
-
2 MInitW Метод инициации весов матрицы W
-
2 MVvYob Метод ввода выходных переменных обучающей выборки
-
2 NzFnClOb Назначение признака конца цикла обучения
-
3 MModW Метод модификации матрицы весов
В ранг 0 входят служебные МЗ, которые не включаются в тело цикла обучения сети. Они осуществляют начальные значения переменных, необходимых для дальнейшего использования и вызов параметров сети, включающих количества входных и выходных переменных, слоёв нейронов, а также параметр функции активации.
В ранг 1 входят МЗ, осуществляющие переадресацию цикла обучения и ввод номера обучающей выборки.
В ранг 2 входят следующие МЗ. Структурированный модуль инициации весов матрицы W , выполняющий функции шага 0. Этот модуль выполняется однократно в начале цикла обучения. Два модуля ввода входных и выходных переменных обучающей выборки, выполняющие функции шага 1. Модуль назначения признака конца цикла обучения, выполняющий функции шага 2.
В ранг 3 входит модуль модификации матрицы весов, выполняющий функции шага 3.
Заключение
Базовыми принципами мягких вычислений являются: терпимость к неточности, неопределённости и частичной истинности, робастности, низкой стоимости решения и лучшего согласия с реальностью. Интеграция жёстких вычислений с мягкими может осуществляться посредством создания синергетических БЗ.
В работе представлен подход к созданию синергетических БЗ в формате структурированных МЗ.
Список литературы Синергетические базы знаний
- Батыршин, И.З. Нечёткие гибридные системы. Теория и практика / И.З. Батыршин, А.О. Недосекин, А.А. Стецко, В.Б. Тарасов, А.В. Язенин, Н.Г. Ярушкина // Под ред. Н.Г. Ярушкиной. - М.: ФИЗМАТЛИТ. 2007. 208 с.
- Ярушкина, Н.Г. Основы теории нечётких и гибридных систем / Н.Г. Ярушкина. - М. Финансы и статистика, 2004. 320 с.
- Штовба, С.Д. Проектирование нечётких систем средствами MATLAB / С.Д. Штовба. М.: Горячая линия-Телеком. 2007. 288 с.
- Рутковская, Д. Нейронные сети, генетические алгоритмы и нечёткие системы / Д. Рутковская, М. Пилинь-ский, Л. Рутковский. — М.: Горячая линия-Телеком, 2008. 383 с. ISBN 5-93517-103-1.
- Рутковский, Л. Искусственные нейронные сети. Теория и практика / Лешек Рутковский. — М.: Горячая линия-Телеком, 2010. 520 с. ISBN 978-5-9912-0105-6.
- Усков, А.А. Интеллектуальные технологии управления. Искусственные нейронные сети и нечёткая логика / А. А. Усков, А.В. Кузьмин. — М.: Горячая Линия-Телеком, 2004. 143 с.
- Голубев, Ю.Ф. Нейросетевые методы в мехатронике / Ю.Ф. Голубев. — М.: Изд-во Моск. ун-та, 2007. 157 с. ISBN 978-5-211-05434-9.
- Хайкин, С. Нейронные сети: полный курс = Neural Networks: A Comprehensive Foundation / С. Хайкин. 2-е изд. — М.: Вильямс, 2006. 1104 с. ISBN 0-13-273350-1.
- Гладков, Л.А. Генетические алгоритмы: / Л.А. Гладков, В.В. Курейчик, В.М. Курейчик. — 2-е изд. — М.: Физматлит, 2006. 320 с. ISBN 5-9221-0510-8.
- Ульянов, С.В. Интеллектуальное робастное управление: технологии мягких вычислений / С.В. Ульянов, Л.В. Литвинцева, В.Н. Добрынин, А. А. Мишин. - М.: ВНИИгеосистем, 2011. 406 с.
- Hutter, M. Universal Artificial Intelligence / Marcus Hutter. Berlin: Springer. 2005. ISBN 978-3-540-22139-5.
- Тарасов, В.Б. От многоагентных систем к интеллектуальным организациям: философия, психология, информатика / В.Б. Тарасов. - М.: Эдиториал УРСС, 2002. 352 с.
- Евгенев, Г.Б. Экспертопедия как средство создания онтологического Интернета знаний / Г.Б. Евгенев // Онтология проектирования. - 2019. - Т.9, №3(33). - С.7-23. DOI: 10.18287/2223-9537-2019-9-1-7-23.
- Евгенев, Г.Б. Основы автоматизации технологических процессов и производств. Т. 2: Методы проектирования и управления / Г.Б. Евгенев // Москва, Изд-во МГТУ им. Н.Э. Баумана, 2015. 479 с.
- Заде, Л. Понятие лингвистической переменной и его применение к принятию приближённых решений / Л. Заде. — М.: Мир, 1976. 166 с.