Что такое нечеткие знания
Нечеткие знания и нечеткая логика
При формализации знаний существует проблема, затрудняющая использование традиционного математического аппарата. Это проблема описания понятий, оперирующих качественными характеристиками объектов (много, мало, больно). Эти характеристики обычно размыты и не могут быть однозначно интерпретированы, однако содержат важную информацию. В задачах, решаемых ИИС, часто приходится пользоваться неточными знаниями, которые не могут быть интерпретированы как полностью истинные или ложные. Существуют знания, достоверность которых выражается некоторым значением, например 07. Таким образом, возникает проблема размытости и неточности. Для разрешения таких проблем в начале 70-х годов ХХ века Лотфи Заде предложил формальный аппарат нечеткой алгебры и нечеткой логики. В последующем это направление получило название «мягкие вычисления». Л. Заде ввел одно из главных понятий в нечеткой логике – лингвистическая переменная (ЛП). ЛП – это переменная, значение которой определяется набором вербальных (словесных) характеристик некоторого свойства. Например, ЛП «рост» определяется через набор <карликовый, низкий, средний, высокий, очень высокий>.
Значения ЛП определяются через нечеткие множества (НМ), которые в свою очередь определены на некотором базовом наборе значений или базовой числовой шкале, имеющей размерность. Каждое значение ЛП определяется как НМ, например «низкий рост».
НМ определяется через некоторую базовую шкалу В и функцию принадлежности НМ – μ(х), х Î В, принимающую значения на интервале [0;1]. Таким образом, нечеткое множество А – это совокупность пар вида (х, μ(х)), где х Î В. Часто используется такая запись:
,
где хi – i-е значение базовой шкалы;
n – число элементов НМ.
Функция принадлежности определяет субъективную степень уверенности эксперта в том, что данное конкретное значение базовой шкалы соответствует определяемому НМ. Эту функцию нельзя путать с вероятностью, носящей объективный характер и подчиняющейся определенным математическим зависимостям.
Пример 4.2. Для двух экспертов определение НМ «высокая цена» для ЛП «цена автомобиля» в условных единицах может существенно отличаться в зависимости от их социального и финансового положения.
Пример 4.3. Пусть необходимо решить задачу интерпретации значений ЛП «возраст», таких как «младенческий», «детский», «юный»,…, «старческий». Для ЛП «возраст» базовая шкала – это числовая шкала от 0 до 120. На рис. 4.2 отражено, как одни и те же значения В могут участвовать в определении различных НМ.
|
Рис. 4.2. Формирование нечетких множеств
При этом НМ определяются следующим образом:
«младенческий» = ;
«детский» = .
Таким образом, НМ позволяют при определении понятия учитывать субъективные мнения отдельных экспертов.
Для операций с нечеткими знаниями, выраженными при помощи ЛП, существует много различных способов, которые являются в основном эвристическими и реализующими логику Заде или вероятностный подход. Усиление или ослабление лингвистических понятий достигается введением специальных квантификаторов. Для вывода на НМ используются специальные отношения и операции над ними. В настоящее время в большинство инструментальных средств разработки систем, основанных на знаниях, включены элементы работы с НМ, кроме того разработаны специальные ПС реализации нечеткого вывода, например «оболочка» Fuzzy CLIPS.
Для обработки нечетких знаний используется нечеткая логика, опирающаяся на теорию Байеса. Эта теория занимается условными вероятностями и входит в качестве раздела в классическую теорию вероятности. Методика разработана на основе утверждения, что «некоторое событие произойдет, потому что раньше уже произошло другое событие». Нечеткая логика играет ту же роль, что и двузначная (булева) логика в классической теории множеств. В общем случае вместо классических истинных значений «истина» и «ложь» рассматриваются классические величины, учитывающие различные степени неопределенности. Они могут принимать целый ряд значений: «верно», «неверно», «в высшей степени верно», «не совсем верно», «более или менее верно», «не совсем ошибочно», «в высшей степени ошибочно» и т.п.
Нечеткая логика имеет дело с ситуациями, когда и сформулированный вопрос и знания, которыми мы располагаем, содержат нечетко очерченные понятия. Однако нечеткость формулировки понятий является не единственным источником неопределенности, поскольку порой нет уверенности в самих фактах. Например, если утверждается: «Возможно, что студент Иванов сейчас находится на лекции по ИИС», то говорить о нечеткости понятия «студент Иванов» и «лекция по ИИС» не приходится. Неопределенность заложена в самом факте, действительно ли студент Иванов находится на лекции.
Теория возможностей является одним из направления в нечеткой логике, в котором рассматриваются точно сформулированные вопросы, базирующиеся на некоторых знаниях.
Пример 4.4.Пусть на занятии присутствуют 10 студентов и известно, что несколько из них готовы ответить на вопросы преподавателя. Какова вероятность того, что преподаватель вызовет отвечать того, кто готов?
Обозначим искомую вероятность через Р. Просто вычислить искомое значение, основываясь на знаниях, что несколько студентов знают материал, нельзя.
Согласно теории возможности определяется понятие «несколько» как НМ:
Распределение возможностей для Р рассчитывается по обычной формуле»
,
которая после подстановки дает
Выражение (0,3;0,2) означает: шанс на то, что Р = 0,3, составляет 20%. Р рассматривается как нечеткая вероятность.
Нечеткие знания. Виды нечеткости знаний. Модели представления нечетких знаний
Корректные задачи часто можно решить существующими методами систематизации и программирования. В области некорректных задач точные знания нельзя получить
Знания, извлеченные из экспертов, как правило, содержат различные виды так называемых НЕ-факторов – нечетких знаний.
Они могут проявляться в умолчаниях, неточных сравнениях, подсознательных знаниях и др., но для представления таких знаний в БЗ требуется конкретная формализация.
Все нечеткости можно классифицировать: Недетерминированность выводов, Многозначность, Ненадежность, Неполнота, Неточность.
Недетерминированное управление выводом наиболее характерно для систем искусственного интеллекта. Таким образом, возникает необходимость определения пути, по которому следует начать поиск в первую очередь.
Алгоритм А. Поисковая задача сформулирована как задача поиска в пространстве состояний пути от исходного состояния заданной задачи до целевого состояния путем повторения возможных преобразований.
На поле один пустой квадрат: состояние можно изменить, передвигая шашку сверху, снизу, справа или слева на пустой квадрат. Следовательно, в этой игре есть четыре оператора преобразования состояния и до четырех степеней свободы квадрата или шашек, соответствующие одному из передвижений шашки на пустой квадрат, будем перемещать пустой квадрат:
перемещение пустого квадрата влево (при этом слева есть квадрат);
перемещение пустого квадрата вверх (при этом вверху есть квадрат);
перемещение пустого квадрата вправо (при этом справа есть квадрат);
перемещение пустого квадрата вниз (при этом внизу есть квадрат)
Будем считать, что перемещение 1 шашки имеет стоимость 1, а до цели ведет оптимальный путь с минимальной стоимостью.
Пусть априорное значение оценочной функции (т.к.точное значение f(n) в процессе игры знать не возможно) : f’(n)=g(n)+h’(n),
где h’(n) — априорное значение h(n) – количесво фишек, стоящих не на своих местах. g(n) — это глубина от 1-ой вершины до n-й вершины.
Выбираем вершину с наименьшим из значений оценочной функции, применяем оператор и раскрываем вершину, затем создаем дочерние вершины (при этом не возвращаемся к уже появившимся вершинам). Повторяем эту процедуру, до целевого состояния.
Если на каком-либо шаге встречаем hi’(n) >h’i-1(n), товозвращаемся на шаг назад и раскрываем вершину со следующим по порядку значением оценочной функции.
Многозначность. Многозначность интерпретации — обычное явление при понимании естественных языков и распознавании изображений и речи. Устранить многозначность в зависимости от типа информации можно более широким контекстом и семантическими ограничениями.
Модель доски объявлений. Фреймовая модель со слотами с понижением рангов. Семь уровней интерпретации от звуков к слогам, словам, группам слов и фразам, многозначность интерпретации на каждом уровне устраняется путем согласования с верхними уровнями, на основе модели доски объявлений; интерпретация не всегда однозначна и обычно генерируются несколько гипотез. Интерпретируем от низшего к высшему (от акустических параметров звуковых волн до понимания смысла вопроса).
Метод релаксации (метод систематического устранения многозначности при интерпретации изображений с помощью циклических операций) Одним из этапов распознавания предмета является интерпретация физического смысла линий. Для каждой грани при этом можно указать, что она выпукла (помечена знаком «+»), вогнута (помечена знаком «–») или является граничной (помечена знаком ®, справа от стрелки — видимая поверхность):Маркируем одну из граней у вершины; фильтруем – расставляем метки для остальных граней, интерпретируя известные метки.
Нечеткие знания и нечеткая логика
При формализации знаний существует проблема, затрудняющая использование традиционного математического аппарата. Это проблема описания понятий, оперирующих качественными характеристиками объектов (много, мало, больно). Эти характеристики обычно размыты и не могут быть однозначно интерпретированы, однако содержат важную информацию. В задачах, решаемых ИИС, часто приходится пользоваться неточными знаниями, которые не могут быть интерпретированы как полностью истинные или ложные. Существуют знания, достоверность которых выражается некоторым значением, например 07. Таким образом, возникает проблема размытости и неточности. Для разрешения таких проблем в начале 70-х годов ХХ века Лотфи Заде предложил формальный аппарат нечеткой алгебры и нечеткой логики. В последующем это направление получило название «мягкие вычисления». Л. Заде ввел одно из главных понятий в нечеткой логике – лингвистическая переменная (ЛП). ЛП – это переменная, значение которой определяется набором вербальных (словесных) характеристик некоторого свойства. Например, ЛП «рост» определяется через набор <карликовый, низкий, средний, высокий, очень высокий>.
Значения ЛП определяются через нечеткие множества (НМ), которые в свою очередь определены на некотором базовом наборе значений или базовой числовой шкале, имеющей размерность. Каждое значение ЛП определяется как НМ, например «низкий рост».
НМ определяется через некоторую базовую шкалу В и функцию принадлежности НМ – μ(х), х Î В, принимающую значения на интервале [0;1]. Таким образом, нечеткое множество А – это совокупность пар вида (х, μ(х)), где х Î В. Часто используется такая запись:
,
где хi – i-е значение базовой шкалы;
n – число элементов НМ.
Функция принадлежности определяет субъективную степень уверенности эксперта в том, что данное конкретное значение базовой шкалы соответствует определяемому НМ. Эту функцию нельзя путать с вероятностью, носящей объективный характер и подчиняющейся определенным математическим зависимостям.
Пример 4.2. Для двух экспертов определение НМ «высокая цена» для ЛП «цена автомобиля» в условных единицах может существенно отличаться в зависимости от их социального и финансового положения.
Пример 4.3. Пусть необходимо решить задачу интерпретации значений ЛП «возраст», таких как «младенческий», «детский», «юный»,…, «старческий». Для ЛП «возраст» базовая шкала – это числовая шкала от 0 до 120. На рис. 4.2 отражено, как одни и те же значения В могут участвовать в определении различных НМ.
|
Рис. 4.2. Формирование нечетких множеств
При этом НМ определяются следующим образом:
«младенческий» = ;
«детский» = .
Таким образом, НМ позволяют при определении понятия учитывать субъективные мнения отдельных экспертов.
Для операций с нечеткими знаниями, выраженными при помощи ЛП, существует много различных способов, которые являются в основном эвристическими и реализующими логику Заде или вероятностный подход. Усиление или ослабление лингвистических понятий достигается введением специальных квантификаторов. Для вывода на НМ используются специальные отношения и операции над ними. В настоящее время в большинство инструментальных средств разработки систем, основанных на знаниях, включены элементы работы с НМ, кроме того разработаны специальные ПС реализации нечеткого вывода, например «оболочка» Fuzzy CLIPS.
Для обработки нечетких знаний используется нечеткая логика, опирающаяся на теорию Байеса. Эта теория занимается условными вероятностями и входит в качестве раздела в классическую теорию вероятности. Методика разработана на основе утверждения, что «некоторое событие произойдет, потому что раньше уже произошло другое событие». Нечеткая логика играет ту же роль, что и двузначная (булева) логика в классической теории множеств. В общем случае вместо классических истинных значений «истина» и «ложь» рассматриваются классические величины, учитывающие различные степени неопределенности. Они могут принимать целый ряд значений: «верно», «неверно», «в высшей степени верно», «не совсем верно», «более или менее верно», «не совсем ошибочно», «в высшей степени ошибочно» и т.п.
Нечеткая логика имеет дело с ситуациями, когда и сформулированный вопрос и знания, которыми мы располагаем, содержат нечетко очерченные понятия. Однако нечеткость формулировки понятий является не единственным источником неопределенности, поскольку порой нет уверенности в самих фактах. Например, если утверждается: «Возможно, что студент Иванов сейчас находится на лекции по ИИС», то говорить о нечеткости понятия «студент Иванов» и «лекция по ИИС» не приходится. Неопределенность заложена в самом факте, действительно ли студент Иванов находится на лекции.
Теория возможностей является одним из направления в нечеткой логике, в котором рассматриваются точно сформулированные вопросы, базирующиеся на некоторых знаниях.
Пример 4.4.Пусть на занятии присутствуют 10 студентов и известно, что несколько из них готовы ответить на вопросы преподавателя. Какова вероятность того, что преподаватель вызовет отвечать того, кто готов?
Обозначим искомую вероятность через Р. Просто вычислить искомое значение, основываясь на знаниях, что несколько студентов знают материал, нельзя.
Согласно теории возможности определяется понятие «несколько» как НМ:
Распределение возможностей для Р рассчитывается по обычной формуле»
,
которая после подстановки дает
Выражение (0,3;0,2) означает: шанс на то, что Р = 0,3, составляет 20%. Р рассматривается как нечеткая вероятность.
Что такое нечеткие знания
14. НЕЧЕТКИЕ ЗНАНИЯ И СПОСОБЫ ИХ ОБРАБОТКИ
14.1. Основные положения
При разработке интеллектуальных информационных систем знания о конкретной предметной области, для которой создается система, редко бывают полными и абсолютно достоверными. Даже количественные данные, полученные путем достаточно точных измерений и экспериментов, имеют статистические оценки достоверности, надежности, значимости и т.д. Большинство знаний, используемых в экспертных системах, получены в результате опроса экспертов, мнения которых субъективны и могут расходиться. Наряду с количественными характеристиками в базах знаний интеллектуальные информационные системы должны храниться качественные показатели, эвристические правила, текстовые знания и т.д. При обработке знаний с применением жестких механизмов формальной логики возникает противоречие между нечеткими знаниями и четкими методами логического вывода. Разрешить это противоречие можно или путем преодоления нечеткости знаний (когда это возможно), или с использованием специальных методов представления и обработки нечетких знаний [22].
14.2. Виды нечеткости знаний
Смысл термина нечеткость многозначен. Трудно претендовать на исчерпывающее определение этого понятия, поэтому рассмотрим лишь основные его компоненты, к которым относятся следующие [2]:
Недетерминированность выводов. Это характерная черта большинства интеллектуальных информационных систем. Недетерминированность означает, что заранее путь решения конкретной задачи в пространстве ее состояний определить невозможно. Поэтому в большинстве случаев методом проб и ошибок выбирается некоторая цепочка логических заключений, согласующихся с имеющимися знаниями, а в случае если она не приводит к успеху, организуется перебор с возвратом для поиска другой цепочки и т.д.
Например, выезжая на автомобиле, следует учитывать состояние дорог, транспорта, погодные условия и т.д. При нарушении одного из предположений, например, из-за пробки на обычном маршруте, планы меняются и выбирается альтернативный маршрут [23].
Многозначность. Многозначность интерпретации — обычное явление в задачах распознавания. При понимании естественного языка серьезными проблемами становятся многозначность смысла слов, их подчиненности, порядка слов в предложении и т.п. Проблемы понимания смысла возникают в любой системе, взаимодействующей с пользователем на естественном языке. Распознавание графических образов также связано с решением проблемы многозначной интерпретации.
Неточность и ненадежность знаний и выводов. Как было отмечено выше, количественные данные (знания) могут быть неточными. Неточность в основном связана с объективными причинами: несовершенство измерительных приборов (школьной линейкой нельзя измерять объекты меньше миллиметра или больше километра), несоблюдения условий проведения замеров (повышенная или пониженная температура, влажность и т.п.) и т.д. При этом существуют различные способы оценки такой неточности, разрабатываемые в рамках теории измерений.
Ненадежность знаний в большей степени связана с субъективными причинами: отсутствием формальных процедур получения точных данных, вероятностной природой поступающих данных, недостаточной математической (логической) обоснованностью используемых правил и т.д. Она может относиться как к количественным, так и качественным показателям. Ненадежность означает, что для оценки достоверности знаний нельзя применить двухбалльную шкалу (1 – абсолютно надежные, 0 – недостоверные). Например, рост человека можно охарактеризовать как «маленький», «средний», «высокий» и т.п., а оценка разных людей этого показателя будет зависеть от их субъективных соображений. Более того, они могут быть не до конца уверены в своей оценке.
В связи с этими особенностями, в интеллектуальных информационных систем применяют вероятностные оценки тех или иных знаний, как в части фактов, так и правил вывода. Так, утверждение р(высокий(вася)) = 0.75 можно интерпретировать как вероятность того, что Вася высокий на три четверти истинна. Утверждение р(ECЛИ настроение_преподователя = «хорошее» И знание_ответа_на_билет = «нулевые» ТО оценка_за_экзамен = «не меньше 3») = 0.8 определяет вероятность истинности правила.
Неполнота знаний и немонотонная логика. Абсолютно полных знаний не бывает, поскольку процесс познания бесконечен. В связи с этим состояние базы знаний должно изменяться с течением времени. В отличие от простого добавления информации, как в базах данных, при добавлении новых знаний возникает опасность получения противоречивых выводов, т.е. выводы, полученные с использованием новых знаний, могут опровергать те, что были получены ранее.
В системах, построенных по принципу модели закрытого мира, добавление новых фактов не нарушает справедливость ранее полученных выводов. Это свойство логических выводов называется монотонностью. К сожалению, реальные знания, закладываемые в интеллектуальных информационных системах, крайне редко бывают полными.
Рассмотрим простой пример. Допустим, в базе знаний содержатся следующие утверждения:
«Птицы летают».
«Пингвин не летает».
«Пикколо — птица».
На основе этих знаний можно получить заключение «Пикколо летает» и сделать вывод о том, что «Пингвин не является птицей».
Если в базу знаний добавить факт «Пикколо — пингвин», то получим противоречащие предыдущим заключения: «Пикколо не летает» и «Пикколо не является птицей».
14.3. Способы устранения и/или учета нечеткости знаний
14.3.1. Учет недетерминированности вывода
Некоторые из методов учета недетермированности были приведены при рассмотрении продукционных систем (поиск в глубину, поиск в ширину, принцип метапродукций и т.д.). При решении логических или оптимизационных задач пространство поиска часто представляется в виде графа – упорядоченной пары непустых множеств вершин (узлов) и ребер (дуг). Одной из разновидностей графа является дерево – связный ациклический граф. Связность означает наличие путей между любой парой вершин, ацикличность – отсутствие циклов.
Ниже рассматриваются некоторые популярные методы поиска решений с использованием графов. Процедура поиска этих методов заключается в обходе дерева и исследовании его узлов (проверке частичных или полных решений) на предмет удовлетворения условиям задачи и/или оптимальности.
1. Метод перебора с возвратами (решение логических задач).
Наиболее известным и часто используемым, в том числе и на бытовом уровне, способом решения задач, является метод перебора с возвратами, называемый также методом проб и ошибок. При научном подходе использование метода позволяет найти точное решение задачи.
Рис.14.1. Обход дерева при поиске решения
— направление поиска из узлов, решение в которых удовлетворяет условиям;
— направление поиска из узлов, решение в которых не удовлетворяет условиям;
— маршрут обхода узлов;
— узел, в котором решение удовлетворяет условиям задачи;
— узел, в котором решение не удовлетворяет условиям задачи;
— узел с итоговым решением задачи;
— узел, не попавший в маршрут обхода.
Все пространство поиска можно представить в виде дерева, узлами которого являются частичные или итоговые решения задачи (необязательно верные). По мере поиска решения, удовлетворяющего условиям (требованиям, ограничениям), постепенно строится это дерево (выполняется обход узлов). Если в листьях (узлах последнего уровня) решение удовлетворяет требуемым условиям, то оно и есть результат поиска. В общем случае, решений может быть несколько (на рис.14.1 узлы 4 и 5). Если при обходе дерева попадается узел, решение в котором не удовлетворяет (противоречит) условиям задачи, тогда выполняется возврат к предыдущему узлу верхнего уровня и продолжается поиск в альтернативном направлении. В частном случае обход дерева может быть прерван при нахождении первого верного решения.
Такой способ поиска решения при обходе дерева сверху-вниз слева-направо называется поиском в глубину. Он используется в языке программирования Пролог при автоматическом поиске ответа на вопрос.
Ограничением использования метода является монотонность выводов. Т.е. если в каком-либо узле проверяемое условие ложно, то в узле следующего уровня оно не может стать истинным и наоборот. Очевидно, что при большом количестве проверяемых условий и направлений поиска данный метод малоэффективен.
2. Метод частичного перебора (точный метод решения оптимизационных задач) [26].
При решении оптимизационных задачах широко используются методы математического программирования. Одним из них является метод частичного (неявного) перебора, называемый также методом ветвей и границ. При обходе дерева (рис.14.2) в узлах помимо проверки допустимости (соответствия ограничениям) считается и проверяется значение выбранного критерия (целевой функции). Если значение этого критерия (при минимизации целевой функции) в текущем узле больше, чем значение, полученное в ранее пройденном и удовлетворяющем всем условиям узле, то дальнейший поиск из текущего узла не ведется (т.к. значение критерия в узлах ветвей, исходящих из него не будет лучше).
Рис.14.2. Обход дерева при поиске решения методом неявного перебора
(Кп – значение критерия в промежуточном узле; Ки – значение критерия в узле, соответствующем полному набору ограничений)
Оптимальным решением в рассмотренном примере является решение в узле 5. Поиск решения из узла 7 не выполнялся, т.к. решения в узлах 8 и 9 дадут заведомо худший результат по сравнению с узлом 5.
Ограничением использования этого метода является как монотонность выводов, так и монотонность критерия (целевой функции). Т.е. значение критерия в узле, из которого ведется поиск, не может быть больше значения критерия в нижележащих узлах. В случаях, когда надо максимизировать целевую функцию, считают величину, обратную критерию 1/К.
3. Алгоритм А* (эвристический метод решения оптимизационных задач) [23].
Эвристический алгоритм (метод) – алгоритм, не гарантирующий нахождения точного или оптимального решения поставленной задачи, но дающий достаточно хороший результат в большинстве случаев.
Эвристические алгоритмы используются в тех случаях, когда точные методы не позволяют найти решение задачи за приемлемое время. Одним из таких методов является алгоритм А*.
В нем для всех узлов, удовлетворяющих ограничениям и в которые можно попасть из корневого узла, вычисляется значение критерия. Дальнейший процесс поиска выполняется только из узла, в котором значение критерия максимально (минимально), остальные ветви поиска не рассматриваются.
Рис.14.3. Поиск решения с помощью алгоритма А*
Недостатком данного алгоритма является возможный пропуск оптимального решения (на рис.14.3 узел 10), но найденное итоговое решения очень часто является оптимальным или, по крайней мере, достаточно хорошим (эффективным).
В табл.14.1 приведена сравнительная характеристика рассмотренных выше методов решения оптимизационных задач.
Сравнительная характеристика методов
Характеристика | Метод частичного перебора | Алгоритм А* |
Тип метода | Точный | Эвристический |
Найденное решение | Оптимальное | Хорошее (может быть оптимальным) |
Обход дерева | Поиск в глубину | Поиск в ширину |
Потребные временные и вычислительные ресурсы | Больше | Меньше |
Очень важной областью применения эвристических алгоритмов поиска решений являются игровые задачи, особенно, игры с соперником [22]. Игры для двух сторон более сложны, чем «простые» задачи из-за существования «враждебного» и, по существу, непредсказуемого противника. Как правило, ходы соперников чередуются и один из них пытается увеличить значение целевой функции (максимизировать свой выигрыш), а другой – уменьшить (минимизировать выигрыш или увеличить проигрыш соперника). Наиболее популярными методами поиска решений в играх с соперником являются прямой алгоритм минимакса и алгоритм альфа-бета-усечения.
14.3.2. Устранение многозначности
Методы устранения многозначности зрительных, слуховых, ситуационных и т.п. образов разрабатываются в рамках теории распознавания образов. Распознавание образов — это научное направление, связанное с разработкой принципов и построением систем, предназначенных для определения принадлежности рассматриваемого объекта к одному из заранее выделенных классов объектов. Здесь под объектами понимают различные предметы, явления, процессы, ситуации, сигналы и т.п. [27]
Вопросами устранения многозначности смысла слов, фраз и предложений занимается теория формальных грамматик.
Развитием классической логики является многозначная логика [22]. Помимо значений истинности true и false в рассуждениях используется другие значения, например, unknown (англ. неизвестно). Такой подход может обеспечить отделение ложных утверждений от утверждений, истинность которых просто неизвестна.
14.3.3. Учет неточности и ненадежности знаний и выводов
Учет ненадежности знаний можно выполнять с использованием разных подходов, широко известными из которых являются:
— теория доказательства (обоснования) Демпстера-Шафера и т.д.
1. Коэффициенты уверенности [10, 23].
Коэффициент уверенности (КУ) – это неформальная оценка, которую эксперт добавляет к заключению. КУ вычисляется по формуле
КУ(Н | Е) = МД(Н | Е) – МНД(Н | Е),
Заметим, что формула не позволяет отличить случай противоречащих свидетельств (МД и МНД обе велики) от случая недостаточной информации (МД и МНД обе малы), что иногда бывает полезно.
Рассмотрим на примере правила использования КУ, которые характеризуют надежность правил, предпосылок (свидетельств, фактов, Е) и гипотез (результата, Н).
а) Если в правиле одна предпосылка, то
Например, есть правило
ЕСЛИ «Вася отец Юли» (КУ = 0.7) ТО «Юля сестра Коли» (КУ = 0.7).
Тогда если КУ предпосылки «Вася отец Юли» равен 0.7, то КУ гипотезы «Юля сестра Коли» тоже равен 0.7.
б) Если в правиле две предпосылки соединенные ∧ (логическим И), то
ЕСЛИ «Вася отец Юли» (КУ = 0.7) ∧ «Вася отец Коли» (КУ = 0.8) ТО «Юля сестра Коли» (КУ = 0.7).
в) Если в правиле две предпосылки соединенные ∨ (логическим ИЛИ), то
ЕСЛИ «Вася отец Юли» (КУ = 0.7) ∨ «Юля любит мороженное» (КУ = 0.8) ТО «Вася часто покупает мороженное» (КУ=0.8).
г) На надежность гипотезы может влиять также надежность самого правила. В этом случае КУ правила умножается на КУ гипотезы.
Например, если надежность последнего правила сомнительна (КУ(правила) = 0.8), то КУ гипотезы «Вася часто покупает мороженное» равен MAX(0.7, 0.8) * 0.8 = 0.64.
д) Если в результате срабатывания двух независимых правил гипотеза (результат) одинаков, то работают следующие правила расчета КУ:
При задании ЛП ее значения, т.е. НМ, должны удовлетворять следующим требованиям.
1. Упорядоченность. НМ должны быть упорядочены (располагаться по базовой шкале) в соответствии с порядком задания качественных значений для ЛП.
3. Согласованность. Должно соблюдаться естественное разграничение понятий, когда одна и та же точка универсального множества U не может одновременно принадлежать с μ(х) = 1 двум и более НМ (это условие согласованности нарушается парой Т2 – Т3).
4. Полнота. Каждое значение из области определения ЛП должно описываться хотя бы одним НМ (данное условие полноты нарушается между парой T3 – Т4).
5. Нормальность. Каждое понятие в ЛП должно иметь хотя бы один эталонный или типичный объект, т.е. в какой-либо точке функция принадлежности НМ должна быть единичной (это правило нарушается T5).
Рис.14.5. Пример задания ЛП с нарушением требований
Требования 2 – 4 можно заменить одним универсальным – сумма функций принадлежности μ(х) по всем НМ в каждой точке области определения переменной должна равняться 1.
При обработке правил с ЛП (нечетких правил) для вычисления истинности гипотезы применяются правила нечеткой логики. Нечеткая логика — разновидность непрерывной логики, в которой предпосылки, гипотезы и сами логические формулы могут принимать истинностные значения с некоторой долей вероятности.
Основные положения нечеткой логики:
— истинность предпосылки, гипотезы или формулы лежит в интервале от 0 до 1;
— если две предпосылки (Е1 и Е2) соединены ∧ (логическим И), то истинность гипотезы Н рассчитывается по формуле t(Н) = MIN(t(Е1), t(Е2));
— если две предпосылки (Е1 и Е2) соединены ∨ (логическим ИЛИ), то истинность гипотезы Н рассчитывается по формуле t(Н) = MAX(t(Е1), t(Е2));
— если правило (П) имеет свою оценку истинности, тогда итоговая истинность гипотезы Нитог корректируется с учетом истинности правила t(Нитог) = MIN(t(Н), t(П))
Из основных положений видно, что нечеткая логика имеет много общего с подходом, основанным на коэффициентах уверенности. Основными отличиями являются диапазон изменения истинности (КУ = [-1, 1], μ(x) = [0, 1]) и определение итогового значения истинности, если правило имеет свою оценку (для КУ эта оценка умножается на результат гипотезы, для нечеткой логики берется минимум из результата гипотезы и оценки истинности правила).
Процедура обработки нечетких правил состоит из 4 этапов.
Этап 1. Вычисление значений функций принадлежности (истинности) для нечетких множеств ЛП, входящей в левые части правил.
Этап 2. Модификация нечетких множеств для ЛП, указанной в правой части правил, в соответствии со значениями функции принадлежности, полученными на первом этапе.
Этап 3. Объединение (суперпозиция) модифицированных множеств.
Этап 4. Скаляризация результата суперпозиции – переход к числовым значениям лингвистических переменных, указанных в правой части. Обычно определяется как центр тяжести суперпозиции соответствующих модифицированных множеств.
Пример использования нечетких множеств.
1. ЕСЛИ t = «высокая», ТО V = «высокая».
2. ЕСЛИ t = «средняя», ТО V = «средняя».
3. ЕСЛИ t = «низкая», ТО V = «низкая».
Для того чтобы система могла обрабатывать эти правила, надо задать функции принадлежности для нечетких подмножеств, определенных на значениях температуры и скорости вращения вентилятора. Пусть температура воздуха в комнате находится в пределах от 0°С до 60°С, а скорость вращения вентилятора от 0 до 1000 об/мин. НМ для температуры и скорости вращения показаны на следующем рисунке.
Рис.14.6. Нечеткие множества для лингвистических переменных t и V
Рассмотрим, как нечеткая управляющая система определяет скорость вращения вентилятора в зависимости от температуры воздуха в комнате. Предположим, что начальная температура равна 22°C.
Этап 1. В левых частях правил указаны три НМ, заданных на интервале t. Находим значение функции принадлежности: μTнизкая(22) = 0, μTсредняя(22) = 0.8 и μTвысокая(22) = 0.2.
Этап 2. Полученные значения используем для модификации нечетких множеств правых частей методом «умножения».
Рис.14.7. Модификация НМ
Этап 3. Объединение (суперпозиция) результатов модификации НМ.
Рис.14.8. Объединение результатов модификации НМ
Этап 4. Скалярное значение суперпозиции соответствует координате центра тяжести по базовой шкале. Для ее определения фигуру, указанную на рис. 14.8, необходимо разбить на элементарные (треугольники и прямоугольники), определение центров тяжести которых не составляет труда.
Рис.14.9. Разбиение на элементарные фигуры
где xi и yi – координаты i-ой вершины треугольника (прямоугольника).
Координаты третьей вершины треугольника F2 можно определить исходя из подобия треугольников.
Рис.14.10. Схема для определения координат третьей вершины треугольника
Из соотношения получаем: а = 160 и b = 0.64. Таким образом, x3 = 560 и y3 = 0.16.
Координаты центров тяжести фигур:
Центр тяжести суперпозиции определяется как средневзвешенная величина по формулам:
где SFi – площадь i-ой фигуры.
Центр тяжести суперпозиции:
Таким образом, скорость вращения вентилятора при t = 22 °C должна быть V = Xцт = 534.2 об/мин.
Возникает вопрос, оправданна ли настолько сложная система управления таким простым устройством? Практика показывает, что оправдана. Так, например, кондиционеры, основанные на нечеткой логике, обеспечивают меньшие по сравнению с традиционными колебания температуры, быстрее приспосабливаются к внешним условиям и дают существенную экономию электроэнергии. На рис.14.11 показаны графики изменения температуры воздуха в помещении при сравнении системы, основанной на нечеткой логике, и традиционной системы.
Рис.14.11. Графики изменения температуры воздуха
В 1980 г. нечеткая логика была использована для управления печами для обжига цемента. Различные японские компании использовали нечеткую логику для управления процессами очистки воды и в системах управления железнодорожными поездами. С той поры нечеткая логика также используется для управления сталелитейными заводами, фотокамерами с автофокусировкой, стиральными машинами, процессами брожения, автомобильными двигателями, антиблокировочной тормозной системой, системами проявления цветной кино- и фотопленки, в компьютерных программах для биржевых торгов и системах, используемых для распознавания письменной и устной речи [38].
Рис.14.12. Бытовая техника, работающая на базе нечетких множеств и нечеткой логики
3. Вероятностный подход на основе теоремы Байеса [10, 23].
Теория вероятностей строится на предположении о том, что, зная частоту наступления событий, можно рассуждать о частоте возникновения последующих комбинаций событий. Например, в рамках простых вероятностных вычислений можно определить, как карты могут распределяться среди игроков. Предположим, вы — один из четырех игроков в карточной игре, в которой все карты распределены равномерно. Если у вас нет пиковой дамы, то вы можете заключить, что вероятность ее нахождения у каждого из остальных игроков равна 1/3. Аналогично можно заключить, что вероятность нахождения у каждого из игроков червового туза также составляет 1/3, и что любой игрок имеет обе карты с вероятностью 1/3*1/3 или 1/9, предположив, что события получения двух карт являются независимыми.
В классической теории вероятностей отдельные вероятности вычисляются либо аналитически комбинаторными методами, либо эмпирически. Если известно, что А и В независимы, то вероятность их комбинации вычисляется по следующему правилу:
Введем понятия априорной и апостериорной вероятности.
Априорная (безусловная) вероятность события — это вероятность, присвоенная событию (гипотезе) при отсутствии знаний, обуславливающих его наступление. Такие знания также называют свидетельствами или основаниями. Априорная вероятность события обозначается Р(событие).
Априорная вероятность болезни отдельного человека P(болезнь) равна числу людей с этим заболеванием Nбол, деленному на число людей, находящихся под наблюдением Nнабл
Апостериорная (условная) вероятность события — это вероятность события при наличии подтверждающих свидетельств, т.е. между событием и свидетельствами имеется связь. Апостериорная вероятность обозначается Р(событие | свидетельство).
Апостериорная вероятность болезни отдельного человека с симптомом P(болезнь | симптом) равна отношению число людей, имеющих заболевание и симптом одновременно Nбол+симп, деленное на количество людей с симптомом Nсимп
В то же время один и тот же симптом может проявляться при разных заболеваниях. Поэтому для расчета апостериорной вероятности в случае конкурирующих гипотез Hi (i = 1..N) используют формулу Байеса
где P(E | Hi) – апостериорная вероятность истинности свидетельства Е при истинности гипотезы Hi;
P(Нi) и P(Е) – соответственно, априорная вероятности истинности гипотезы Нi и свидетельства E.
Априорные вероятности P(Нi) и P(Е) задаются экспертами и рассчитываются на основе классической теории вероятности. Апостериорную вероятность P(E | Hi) достоверно установить экспертным путем проще, чем P(Hi | E), в силу независимости гипотез Нi друг от друга (рис.14.13). Например, проще установить истинность, что у больного менингитом болит голова, чем у человека с болящей головой менингит.
Рис.14.13. Независимость гипотез
В ЭС байесовский подход обычно рассматривается как способ переоценки наших представлений на базе опыта и используется при выводе (поиске решения) среди конкурирующих гипотез. Она нашла широкое применение при распознавании образов, в экспертных системах (например, ЭС PROSPECTOR) и т.д.
Пример расчета апостериорной вероятности.
В магазине имеются лампы с трех заводов. Необходимая информация для расчета представлена в табл.14.1.
Завод № 1 | Завод № 2 | Завод № 3 | |
Количество ламп в магазине, шт. | 30 | 50 | 20 |
Процент брака продукции, % | 5 | 3 | 2 |
Пусть событие E состоит в том, что выбранная лампа оказалась бракованной, а E | Hi означает событие, состоящее в том, что выбрана бракованная лампа из ламп, произведенных на i-ом заводе
P(E | H1) = 5/100 = 0.05; P(E | H2) = 3/100 = 0.03; P(E | H3) = 2/100 = 0.02.
Вероятность того, что случайно выбранная в магазине лампа оказалась бракованной
P(E) = ∑ P(Hi) * P(E | Hi) = 0.3 * 0.05 + 0.5 * 0.03 + 0.2 * 0.02 = 0.034.
Вероятность того, что купленная бракованная лампа изготовлена на втором заводе
P(H2 | E) = 0.03 * 0.5 / 0.034 = 0.44.
4. Модифицированный байесовский подход (авторы Дуд, Харт и Нильсон) [2, 10].
Данный подход позволяет вычислить апостериорные вероятности, используя шансы (О) и отношения правдоподобия (ОП).
В отличие от вероятности, априорные шансы в пользу какого-либо события (гипотезы) определяются, как отношение числа свидетельств, подтверждающих событие, к числу свидетельств его опровергающих. Так, априорные шансы в пользу заболевания болезнью О(болезнь), равны отношению числа людей с этой болезнью к числу людей ей не болеющих (из общего числа наблюдаемых).
Т.о. шансы и вероятность связаны отношениями:
Априорные шансы показывают, насколько более вероятным становится наступление события при отсутствии свидетельств его обуславливающих. Если шансы больше 1, то это свидетельствует более, чем о 50% вероятности наступления события, если меньше 1 — менее 50%, если равны 1 — 50% / 50%.
Отношение правдоподобия конкурирующих гипотез, исходя из силы свидетельств, определяется через апостериорные вероятности по формуле
Отношение правдоподобия, как и шансы, показывает, насколько более вероятной становится гипотеза, но уже при наличии свидетельств. Если отношение правдоподобия больше 1, то это свидетельствует в пользу гипотезы, если меньше 1 — против нее, если равно 1 — свидетельства не влияют на правдоподобие рассматриваемой гипотезы.
Опираясь на вышеприведенные выражения, апостериорные шансы по байесовской схеме могут быть определены по выражению
При заданных априорных шансах для конкурирующих гипотез и свидетельств, про которые известно, что они произошли, легко вычисляются апостериорные шансы, а по ним — и вероятности. Отношения правдоподобия получаются из простой двумерной таблицы, показывающей, насколько часто случается каждое событие при каждой из гипотез.
В качестве примера воспользуемся данными следующих двух таблиц.
Отношение к курению | Продолжительность жизни | Всего | |
более 75 лет | 75 лет и менее | ||
Курящие | 20 | 33 | 53 |
Некурящие | 24 | 23 | 47 |
Всего | 44 | 56 | 100 |
Пол | Продолжительность жизни | Всего | |
более 75 лет | 75 лет и менее | ||
Мужчины | 24 | 36 | 60 |
Женщины | 20 | 20 | 40 |
Всего | 44 | 56 | 100 |
В табл.14.3 содержатся данные по 100 умершим людям, из которых 44 умерли в возрасте за 75 лет, а остальным было 75 лет или меньше, причем указано, кто среди них был курильщиком, а кто нет. В табл.14.4 аналогичные данные для этих 100 человек с разделением по половому признаку.
Априорные шансы в пользу того, что человек проживет более 75 лет:
О(Долгожитель) = 44/56 = 0.786,
а отношение правдоподобия
ОП(Долгожитель | Курящий) = (20/44) / (33/56) = 0.771;
ОП(Долгожитель | Некурящий) = (24/44) / (23/56) = 1.328;
ОП(Долгожитель | Мужчина) = (24/44) / (36/56) = 0.848;
ОП(Долгожитель | Женщина) = (20/44) / (20/56) = 1.273.
Теперь рассчитаем вычислить апостериорные шансы и вероятность того, что курящий мужчина проживет долгую жизнь
О(Долгожитель | Курящий ∧ Мужчина) = ОП(Долгожитель | Курящий) * ОП(Долгожитель | Мужчина) * О(Долгожитель) = 0.771 * 0.848 * 0.786 = 0.514
Р(Долгожитель | Курящий ∧ Мужчина) = 0.514 / (1 + 0.514) = 0.339
Таким образом, даже имея разрозненную информацию (не зная, сколько мужчин и женщин курит), можно вычислить апостериорную вероятность.
14.3.4. Учет неполноты знаний и немонотонная логика
К наиболее известным способам учета неполноты и немонотонности выводов являются: немонотонная логика Макдермотта и Доула, логика умолчания Рейтера, немонотонная логика Маккарти, системы умолчаний и переопределение атрибутов и методов во фреймовых и объектно-ориентированных моделях и др. [22]
Для организации логических выводов в интеллектуальных системах с неполными знаниями вместо традиционной дедукции применяется абдукция. Абдукцией называется процесс формирования объясняющей гипотезы на основе заданной теории и имеющихся наблюдений (фактов). Рассмотрим простейший пример абдуктивного вывода. Предположим, теория содержит правило: «ЕСЛИ студент отлично знает математику, ТО он может стать хорошим инженером» и факт: «Студент Иванов отлично знает математику». Кроме того, имеется наблюдение «Студент Иванов стал хорошим экономистом», которое не выводится из заданной теории. Для того чтобы его вывести, необходимо сформировать абдуктивную (объясняющую) гипотезу, которая не будет противоречить вышеприведенной теории. Такой гипотезой может быть, например, следующая: «Хороший математик может стать хорошим экономистом».
Абдуктивные выводы используются в задачах диагностики для обнаружения причин наблюдаемого неправильного поведения систем, в задачах, связанных с пониманием естественного языка, для решения проблем накопления и усвоения знаний и т.д.
Одним из способов учета неполноты знаний и немонотонности выводов является использование умолчаний [2].
Система умолчаний активно используется во фреймах и объектно-ориентированных моделях.
Рис.14.14. Пример базы фреймов
Вопросы для самопроверки
4. Дайте определения «априорной» и «апостериорной» вероятности события.