Читать книгу «Основные понятия систем искусственного иттеллекта» онлайн полностью📖 — Юрия Степановича Почанина — MyBook.
image

ГЛАВА 3. КЛАССИФИКАЦИЯ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

В настоящее время практические работы в области искусственного интеллекта ведутся, в основном, по двум направлениям, рис.3.1:

1. бионическое (нейрокибернетика) – попытки смоделировать с помощью искусственных систем психофизиологическую деятельность человеческого мозга с целью создания искусственного разума;

2. прагматическое (кибернетика черного ящика) – создание программ, позволяющих с использованием ЭВМ воспроизводить не саму мыслительную деятельность, а являющиеся ее результатами процессы. Здесь достигнуты важнейшие результаты, имеющие практическую ценность.


Рис.3.1. Направления исследований в области искусственного интеллекта

3.1. Бионическое направление

Ученые, работающие в бионическом направлении, пытаются воссоздать техническими средствами сам объект, в котором бы протекали процессы, схожие с психическими процессами, проявляющимися у человека во время решения задач. Такие исследователи специально конструируют сети искусственных нейронов и другие аналоги, присущие нервной системе человека. Нейронные модели не только повторяют функции мозга, но и способны выполнять функции, имеющие свою собственную ценность. Поэтому возникли и остаются в настоящее время две взаимно обогащающие друг друга цели нейронного моделирования:

–первая—понять функционирование нервной системы человека на уровне физиологии и психологии,

–вторая—создать вычислительные системы (искусственные нейронные сети), выполняющие функции, сходные с функциями мозга.

Еще в 1949 г. была создана модель человеческого обучения – модель Д. Хэбба. Он предложил закон обучения, явившийся стартовой точкой для алгоритмов обучения искусственных нейронных сетей. В пятидесятые и шестидесятые годы группа исследователей создала первые искусственные нейронные сети. Выполненные первоначально как электронные сети, они были позднее перенесены в более гибкую среду компьютерного моделирования.

Широкий интерес научной общественности к нейросетям начался в начале восмидесятых годов после теоретических работ физика Хопфилда. Он и его последователи обогатили теорию параллельных вычислений многими идеями: коллективное взаимодействие нейронов. Практическое применение нейросетей началось после публикации Румельхартом метода обучения многослойного персептрона. Удельная стоимость современных нейровычислений на порядок ниже, чему традиционных компьютеров, а быстродействие – в сотни раз выше. Системы нейронной обработки можно классифицировать следующим образом, рис.3.2.



Рис. 3.2. Классификация систем нейронной обработки.


Реально нейрокомпьютеры используются в специализированных системах, где требуется обучать и постоянно переобучать сотни нейросетей, объединенные в единые информационные комплексы, или в системах реального времени, где скорость обработки данных критична (например, при обработке экспериментов на современных ускорителях элементарных частиц используют нейрокомпьютер CNAPS с производительностью 10 и каждый процессор состоит из 512 нейронов).

Доступность и возросшие вычислительные возможности современных компьютеров привели к широкому распространению программ, использующих принципы нейросетевой обработки данных, Этот подход не использует параллелизм, но ориентируется исключительно на способность нейросетей решать неформализованные задачи и реализуется нейроэмуляторами.

Сторонники нейробионики моделируют искусственным образом процессы, происходящие в мозгу человека. Системы искусственного разума базируются на математической интерпретации деятельности нервной системы во главе с мозгом человека и реализуются в виде нейроподобных сетей на базе нейроподобного элемента – аналога нейрона.

Нейроподобные сети в последнее время являются одним из самых перспективных направлений в области искусственного интеллекта и постепенно входят в бытность людей в широком спектре деятельности и подразделяются на несколько групп.

Сети первой группы, такие, как сети обратного распространения ошибки, сети Хопфилда и др., используются для распознавания образов, анализа и синтеза речи, перевода с одного языка на другой и прогнозирования.

Сети второй группы используются как системы управления в реальном времени несложных объектов. Это управление популярными в последнее время интеллектуальными агентами, исполняющими роль виртуальных секретарей. Особенностями данной группы является появление некоторых внутренних стимулов, возможность к самообучению и функционированию в реальном времени.

Сети третьей группы, являющиеся дальнейшим развитием предыдущих, представляют собой уже нейроподобные системы, и нацелены они на создание экзотических в настоящее время виртуальных личностей, информационных копий человека, средой обитания которых является глобальная сеть Интернет.

К бионическому направлению относятся исследования и разработки эволюционных и генетических алгоритмов, а также роевого интеллекта.

Класс эволюционных алгоритмов представляет собой исследования, в которых изучаются и моделируются процессы естественного и искусственного отбора. Все эволюционные алгоритмы моделируют базовые эволюционные процессы в природе – наследование, мутации и отбор.

В применении к технологиям искусственного интеллекта работа эволюционных алгоритмов всегда связана с взаимодействием искусственной интеллектуальной системы с какой-либо средой, а опосредованно через неё, возможно, и с другими интеллектуальными системами (как искусственными, так и естественными). В эволюционной стратегии осуществляется поиск целевого вектора, который наилучшим образом подходит под решение задачи. И компонентами этого вектора являются только действительные числа.

Для поиска решения осуществляются скрещивание особей и мутации. Далее применяется функция отбора, которая принимает на вход всю когорту – и родительские особи, и множество их потомков. Отбор осуществляется детерминированным образом – оставляются самые лучшие особи, причём без повторений.

Операция мутации может быть произвольной над действительными числами, но обычно используется простое добавление нормально распределённого случайного числа к компонентам векторов. Важным дополнением эволюционной стратегии является то, что в процессе эволюции параметры нормального распределения добавляемой в рамках мутации случайной величины адаптируются под поиск решения задачи.

Генетический алгоритм позволяет найти оптимальное или субоптимальное решение задачи с требуемой точностью в тех случаях, когда существует возможность представить входные данные в виде вектора значений, а критерий останова выразить в виде предиката, возвращающего истину на тех входных параметрах, которые достаточны для решения. Предикат зависит от так называемой фитнес-функции, которая возвращает степень соответствия входного вектора целевому значению. Ну и, само собой разумеется, искомое значение должно существовать, иначе алгоритм никогда не остановится.

При помощи генетического алгоритма можно отобрать подходящее значение в пространстве поиска. Генетический алгоритм состоит из следующих шагов: генерация начальной популяции, цикличный процесс рождения новых поколений и отбора, остановка и возвращение результатов поиска.

На этапе генерации начальной популяции необходимо подготовить некоторое количество «начальных» значений в пространстве поиска, с которых алгоритм начнёт свою работу. Начать можно с произвольных значений, но если такие значения будут как можно более близки к целевому, то алгоритм отработает намного быстрее.

Далее – запуск цикличного процесса рождения новых поколений и отбора. Фактически, это и есть сам генетический алгоритм, который раз за разом запускает процесс порождения новых поколений, изучения новых особей и отбора наиболее интересных.

Роевой интеллект (РИ). Рассматривается в теории искусственного интеллекта как метод оптимизации. Понятие роевого интеллекта все теснее переплетается с алгоритмами обработки и оптимизации больших количеств и потоков информации. Ещё давным-давно люди стали интересоваться так называемым “роевым поведением” – каким образом птицы летят на юг огромными косяками, не сбиваясь с курса. Как огромные колонии муравьёв работают так слаженно и возводят структуры, по сложности не уступающие современным мегаполисам. Как пчёлы могут так точно определять и добывать в необходимом для всей колонии питание. Все эти большие группы животных/насекомых можно объединить одним общим словом – рой. Благо, человечество не стоит на месте и, развиваясь, люди стали изобретать компьютеры, при помощи которых инженеры стали моделировать “роевой интеллект”– попытки сделать роботизированные, автоматические и автоматизированные рои. Хоть далеко не все попытки были успешными, но, тем не менее, они положили начало созданию РИ, заложив к его основанию некоторые фундаментальные правила. Одним из них является тот факт, что для роевого интеллекта необходимо большое (достаточно) количество агентов, способных взаимодействовать между собой и окружающей их средой локально. Наблюдая за различными естественными примерами роёв, человечество придумало различные модели РИ, чьё поведение основывалось на различных путях взаимодействия с окружающей средой и между собой. У данного метода есть три основные теории, которые описывают его функционирование и взаимодействие между элементами: – теория отрицательного отбора; – теория иммунной сети; – теория клональной селекции.

Метод роя частиц (МРЧ) является методом численной оптимизации, поддерживающий общее количество возможных решений, которые называются частицами или агентами, и перемещая их в пространстве к наилучшему найденному в этом пространстве решению, всё время находящемуся в изменении из-за нахождения агентами более выгодных решений. Классическая компьютерная модель МРЧ была создана лишь в 1995 году Расселом Эберхартом и Джеймсом Кеннеди. Их модель отличается тем, что частицы-агенты роя, помимо подчинения неким правилам обмениваются информацией друг с другом, а текущее состояние каждой частицы характеризуется местоположением частицы в пространстве решений и скоростью перемещения. Если проводить аналогию со стаей, то можно сказать, что все агенты алгоритма (частицы), в стае они могут быть птицами или рыбами, ставят для себя три довольно простых задачи:

– все агенты должны избегать пересечения с окружающими их агентам;

–каждая частица должна корректировать свою скорость в соответствии со скоростями окружающих её частиц;

–каждый агент должен стараться сохранять достаточно малое расстояние между собой и окружающими его агентами.

Алгоритм роя частиц – итеративный процесс, постоянно находящийся в изменении. Так же все частицы знают местоположение наилучшего результата поиска во всём рое и с каждой итерацией агенты корректируют вектора своих скоростей и их направления, стараясь приблизиться к наилучшей точке роя и при этом быть поближе к своему индивидуальному максимуму. При этом постоянно происходит расчёт искомой функции и поиск наилучшего значения. Концепцию данного алгоритма описывает формула, согласно которой корректируется модуль и направление скорости агентов.

v⍵v+rnd()(Pbest-x)c1+rnd()(gbest-x)c2,

где: ⍵ – коэффициент инерции, определяющий баланс между тем, насколько широко будет “заходить” в исследовании агент и тем, насколько сильно агент будет желать остаться рядом с найденными ранее оптимальными решениями;

–Pbest – координаты наилучшей найденной агентом точкой; -gbest – координаты наилучшей роевой точки; x – текущие координаты точки;

–rnd() – случайный коэффициент, принимающий значение от 0 до 1; c1, c2 – постоянные ускорения.

Изначально этот алгоритм применялся для исследований социального психолога, Кеннеди, но самое большое распространение этот алгоритм смог получить при решениях задач оптимизации различных нелинейно-многомерных уравнениях. Этот алгоритм в современном мире применяется в машинном обучении, для решений задач оптимизации и в различных точных и экспериментальных науках, таких как биоинженерия и т. д.