СОДЕРЖАНИЕ
1. Введение
2. Избранные задачи искусственного интеллекта
2.1. Введение
2.2. История искусственного интеллекта
2.3. Экспертные системы
2.4. Роботика
2.5. Преобразование речи и естественного языка
2.6. Эвристики и поисковые стратегии
2.7. Когнитивистика
2.8. Интеллект муравьев
2.9. Искусственная жизнь
2.10. Боты
2.11. Перспективы развития искусственного интеллекта
2.12. Примечания
3. Методы представления знаний с использованием приближенных множеств
3.1. Введение
3.2. Основные понятия
3.3. Аппроксимация множества
3.4. Аппроксимация семейства множеств
3.5. Анализ таблиц решений
3.6. Использование программы LERS
3.7. Примечания
4. Методы представления знаний с использованием нечетких множеств типа 1
4.1. Введение
4.2. Основные понятия и определения теории нечетких множеств
4.3. Операции на нечетких множествах
4.4. Принцип обобщения
4.5. Нечеткие числа
4.6. Треугольные нормы и отрицания
4.7. Нечеткие отношения и их свойства
4.8. Нечеткий вывод
4.8.1. Основные правила вывода в двоичной логике
4.8.2. Основные правила вывода в нечеткой логике
4.8.3. Правила вывода для модели Мамдани
4.8.4. Правила вывода для логической модели
4.9. Системы нечеткого вывода
4.9.1. База правил
4.9.2. Блок фуззификации
4.9.3. Блок вывода
4.9.4. Блок дефуззификации
4.10. Применение нечетких множеств
4.10.1. Нечеткий метод Дельфи
4.10.2. Взвешенный нечеткий метод Дельфи
4.10.3. Нечеткий метод PERT
4.10.4. Принятие решений в нечеткой среде
4.11. Примечания
5. Методы представления знаний с использованием нечетких множеств типа 2
5.1. Введение
5.2. Основные определения
5.3. След неопределенности
5.4. Выделенные нечеткие множества
5.5. Основные операции на нечетких множествах типа 2
5.6. Нечеткие отношения типа 2
5.7. Понижение типа
5.8. Системы нечеткого вывода типа 2
5.8.1. Блок фуззификации
5.8.2. База правил
5.8.3. Блок вывода
5.9. Примечания
6. Нейронные сети и алгоритмы их обучения
6.1. Введение
6.2. Нейрон и его модели
6.2.1. Структура и функционирование одиночного нейрона
6.2.2. Персептрон
6.2.3. Модель Adaline
6.2.4. Модель нейрона с сигмоидой на выходе
6.2.5. Модель нейрона Хебба
6.3. Однонаправленные многослойные сети
6.3.1. Структура и функционирование сети
6.3.2. Алгоритм обратного распространения ошибки
6.3.3. Алгоритм обратного распространения ошибки с учетом момента
6.3.4. Алгоритм переменной метрики
6.3.5. Алгоритм Левенберга-Марквардта
6.3.6. Рекуррентный метод наименьших квадратов
6.3.7. Подбор архитектуры сети
6.4. Рекуррентные сети
6.4.1. Сеть Хопфилда
6.4.2. Сеть Хемминга
6.4.3. Многослойные сети с обратной связью
6.4.4. Сеть ВАМ
6.5. Сети с самоорганизацией и конкуренцией
6.5.1. Сети типа WTA
6.5.2. Сети типа WTM
6.6. Сети типа ART
6.7. Радиальные сети
6.8. Вероятностные нейронные сети
6.9. Примечания
7. Эволюционные алгоритмы
7.1. Введение
7.2. Задачи оптимизации и эволюционные алгоритмы
7.3. Виды алгоритмов, относимых к эволюционным
7.3.1. Классический генетический алгоритм
7.3.2. Эволюционные стратегии
7.3.3. Эволюционное программирование
7.3.4. Генетическое программирование
7.4. Особые технологии в эволюционных алгоритмах
7.4.1. Обследование и эксплуатация
7.4.2. Методы селекции
7.4.3. Масштабирование функции приспособленности
7.4.4. Особые процедуры репродукции
7.4.5. Методы кодирования
7.4.6. Виды скрещивания
7.4.7. Виды мутаций
7.4.8. Инверсия
7.5. Применение эволюционных алгоритмов для проектирования нейронных сетей
7.5.1. Применение эволюционных алгоритмов для обучения весов нейронных сетей
7.5.2. Применение эволюционных алгоритмов для определения топологии нейронной сети
7.5.3. Применение эволюционных алгоритмов для обучения весов и определения топологии нейронной сети
7.6. Эволюционные алгоритмы и нечеткие системы
7.6.1. Нечеткие системы для контроля эволюции
7.6.2. Эволюция нечетких систем
7.7. Примечания
8. Методы группирования данных
8.1. Введение
8.2. Четкие и нечеткие декомпозиции
8.3. Меры удаленности
8.4. Алгоритм HCM
8.5. Алгоритм FCM
8.6. Алгоритм РСМ
8.7. Алгоритм Густафсона-Кесселя
8.8. Алгоритм FMLE
8.9. Критерии качества группирования
8.10. Иллюстрация функционирования алгоритмов группирования данных
8.11. Примечания
9. Нейро-нечеткие системы типа Мамдани, логического и Такаги-Сугено
9.1. Введение
9.2. Описание тестовых задач
9.2.1. Полимеризация
9.2.2. Моделирование статической нелинейной функции
9.2.3. Моделирование нелинейного динамического объекта
9.2.4. Моделирование вкуса риса
9.2.5. Распознавание сорта вина
9.2.6. Классификация цветка ириса
9.3. Нейро-нечеткие системы типа Мамдани
9.3.1. Системы типа А
9.3.2. Системы типа В
9.3.3. Системы типа Мамдани в задачах моделирования
9.4. Нейро-нечеткие системы логического типа
9.4.1. Системы типа М1
9.4.2. Системы типа М2
9.4.3. Системы типа М3
9.5. Нейро-нечеткие системы типа Такаги-Сугено
9.5.1. Системы типа М1
9.5.2. Системы типа М2
9.5.3. Системы типа М3
9.6. Алгоритмы обучения нейро-нечетких систем
9.7. Оценивание функционирования нейро-нечетких систем
9.7.1. Критерии оценивания моделей с учетом их сложности
9.7.2. Метод изокритериальных линий
9.8. Примечания
10. Эластичные нейро-нечеткие системы
10.1. Введение
10.2. Мягкие треугольные нормы
10.3. Параметризованные треугольные нормы
10.4. Триггерные треугольные нормы
10.5. Эластичные системы
10.6. Алгоритмы обучения
10.6.1. Основные операторы
10.6.2. Функции принадлежности
10.6.3. Интервальные функции
10.6.4. Н-функции
10.7. Решение тестовых задач
10.7.1. Полимеризация
10.7.2. Моделирование вкуса риса
10.7.3. Классификация цветка ириса
10.7.4. Распознавание сорта вина
10.8. Примечания
Литература
Предметный указатель