Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Нейронные сети и большие данные.docx
Скачиваний:
51
Добавлен:
04.03.2022
Размер:
1.09 Mб
Скачать

История

Как я говорила ранее, мысль об искусственном механизировании человеческого мышления и его управлении с помощью разумных «нечеловеческих» машин зародилась давным-давно, еще в древние времена. Программируемый цифровой компьютер создали в 1940 году, а в 1956 году во время летней конференции (было даже не конференцией, а скорее семенаром) в Дартмутском колледже ввели термин «искусственный интеллект». Начиная с середины ХХ века многие ученые, математики, программисты, логики и теоретики способствовали укреплению современного пониманию искусственного интеллекта в целом.

Период между 1940 и 1960 годами можно считать периодом рождения ИИ на волне кибернетики, так как он (период) был отмечен сочетанием технологических достижений и желанием понять, как объединить работу машин и органических существ.

Первая математическая и компьютерная модель биологического нейрона (формального нейрона) была разработана Уорреном Маккалоком и Уолтером Питтсом еще в 1943 году. В начале же 1950 года Джон фон Нейман и Алан Тьюринг еще не создали термин ИИ, но были отцами-основателями лежащей в его основе технологии: они перешли от компьютеров в десятичной логике ХIХ века к машине с двоичной логикой. Также Тьюринг впервые поднял вопрос о возможном интеллекте машины в своей знаменитой статье 1950 года «Вычислительные машины и интеллект» и описал «игру в имитацию», где человек должен иметь возможность различать в диалоге телетайпа, разговаривает ли он с человеком или с машиной. Герберт Саймон, экономист и социолог, в 1957 году предсказал, что ИИ сумеет победить человека в шахматах в следующие 10 лет, но затем ИИ вступил в период стагнации развития и видение подтвердилось только спустя 30 лет.

Период с 1970 по 1980 можно считать периодом повышения интереса к ИИ. Так, в 1968 году был снят фильм «Космическая одиссея 2001 года», в котором компьютер HAL 9000 демонстрирует сумму этических вопросов перед ИИ. Воздействие фильма способствовало популяризации темы ИИ, а после появления первых микропроцессоров в конце 1970 года эта тема снова «взлетела» и вступила в золотой век экспертных систем. Путь движения вверх был открыт в Массачусетском технологическом институте в 1965 году с помощью DENDRAL – экспертной системы, специализирующийся на молекулярной химии – и в Стэндфордском университете в 1972 году с MYCIN – системой, специализирующейся на диагностике болезней крови и лекарствах, отпускаемых по рецепту. Эти системы были основаны на «машине вывода», которая была запрограммирована как логическое зеркало человеческого рассуждения. В 1971 г. В.Н. Вапник и А.Я. Червоненкис обосновали сходимость методов обучения, основанных на минимизации эмпирического риска, что дает возможность получить оценку скорости сходимости алгоритмов машинного обучения. Методы решения этой задачи получили название методов структурной минимизации риска, в настоящее время они широко применяются в задачах распознавания образов, восстановления регрессионных зависимостей и при решении обратных задач физики, статистики и других научных дисциплин.

В 1974 году произошло значимое событие, А.И. Галушкиным впервые был описан метод обратного распространения ошибки (backpropagation) – итеративный градиентный алгоритм, который используется при обновлении весов многослойного перцептрона с целью минимизации ошибки и получения желаемого выхода.

В конце же 1980-х – начале 1990-х годов повальное увлечение снова прекратилось, так как программирование таких знаний потребовало больших усилий, и при программировании 200-300 правил возникал эффект «черного ящика»: было не понятно, как именно рассуждала машина. В 1990-е годы термин «искусственный интеллект» стал практически «табу». В мае 1997 года в шахматной игре против Гарри Каспарова программа Deep Blue IBM исполнила пророчество Герберта Саймона 1957 года, однако это не повлекло за собой ожидаемого повышения финансирования и дальнейшего развития.

С 2010 года начался новый расцвет, основанный на больших данных и новых вычислительных мощностях. Новый бум объясняют два фактора:

  1. Доступ к огромным объемам памяти. Например, чтобы иметь возможность использовать алгоритмы классификации изображений и распознавания кошек, ранее требовалось проводить долгий самостоятельный ручной отбор образцов. Сегодня простой поиск в Google позволяет за доли секунды найти миллионы изображений по запросу.

  2. Открытие очень высокой эффективности процессоров компьютерных видеокарт для ускорения расчета алгоритмов обучения. Этот процесс очень итеративен, и до 2010 года обработка всей выборки могла занимать несколько недель. Вычислительная мощность видеокарт (более тысячи миллиардов транзакций в секунду) позволила добиться значительного прогресса при ограниченных финансовых затратах (менее 1000 евро за видеокарту).

В 2012 году Google X заставила ИИ распознавать кошек на видео, в 2016 AlphaGo победила чемпиона Европы (Фан Хуэя) и чемпиона мира (Ли Седоля) в игре Го.

На сегодняшний день реалистичность сгенерированных изображений вышла на высокий уровень, во многом этот результат обязан успехам алгоритмов GAN (Generative Adversarial Network). Лучшие результаты показывали решения BigGan от Google и vid2vid от NVidia. Это открыло возможность к созданию графических редакторов, генерирующих реалистичные изображения, и так называемых «deep fake» - ложные видео или изображения, «трудно» отличимые от оригиналов, что в свою очередь стало серьезным вызовом для новой дисциплины – киберкриминалистики. Модели в области обработки естественного языка также вышли на высокий уровень – за счет алгоритмов ELMo, BERT, XLNet, GPT. Модели побеждают лучших игроков в сложных играх – модель от DeepMind победила двух профессиональных игроков StarCraft со счетом 10:1.

ИИ-системы по распознаванию изображений получают регистрационные удостоверения медицинских изделий, что позволяет применять их в клинических процессах наряду с другими, но уже более привычными медицинскими изделиями.