Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
спэшл по алекс / статьи.англ / As Machines Get Smarter.docx
Скачиваний:
12
Добавлен:
27.03.2016
Размер:
207.55 Кб
Скачать

23 Июля 2013 г.

Комментарии (4)

    адрес печать

Мозг выполняет ее канонической задачи - обучение путем тонкой настройки его множеством соединений согласно секретного набора правил. Чтобы разблокировать эти секреты, ученые 30 лет назад начали разработку компьютерных моделей, которые пытаются повторить процесс обучения. Сейчас, все большее число экспериментов показывают, что эти модели ведут себя поразительно похожими на реальные мозги при выполнении определенных задач. Исследователи говорят, что сходство предложить основные переписка между мозги " и компьютеры, лежащие в основе алгоритмов обучения.

Алгоритм используется компьютерная модель называется машина Больцмана,изобретен Джеффри Хинтона и Терри Sejnowski в 1983 г., представляется особенно перспективным, как простое теоретическое объяснение ряда процессов, происходящих в мозге, в том числе, развитие, формирование памяти, объект и звук признание, и цикла сон-бодрствование.

“Это лучшее, что мы действительно имеем возможность для понимания мозга в настоящее время,” сказала Сью Беккер, профессор психологии, нейробиологии и поведения университета МакМастера в Гамильтоне, Онтарио. “Я не знаю модель, которая объясняет широкий круг явлений с точки зрения обучения и структуры мозга.”

Хинтон, пионером в области искусственного интеллекта, всегда хотели, чтобы понять правила, определяющие, когда мозг говядины соединение, и когда она уитлс один вниз - в общем, алгоритм, как мы учимся. “Мне казалось, если вы хотите что-то понять, необходимо быть в состоянии строить”, - сказал он. После редукционизма подход физики, его план был построить простые компьютерные модели мозга, которая включала в себя различные алгоритмы обучения и “увидеть, какие из них работают”, - сказал Hinton, который делит свое время между университетом Торонто, где он является профессором информатики и Google.

Многослойных нейронных сетей состоят из слоя искусственных нейронов с взвешенные связей между ними. Входные данные подаются в сети посылает каскад сигналов через слои, и алгоритм обучения диктует ли, чтобы увеличить или уменьшить вес каждого соединения. В результате сеть более приспособленными к структуры, которые существуют в данных.

В течение 1980-х и 1990-х годов, Hinton - пра-пра-внук 19-го века логик George Boole, чья работа является основой современной информатики - придумал или co-изобрел коллекция алгоритмов машинного обучения. Те алгоритмы, которые tell computers, как получить из данных, используемых в компьютерных моделей, называемых искусственных нейронных сетей - сети взаимозависимых виртуальной нейронов, которые передают сигналы своим соседям путем включения и выключения, или “стрельбы.” Когда данные вводятся в сети, установка off каскад огневой деятельности, алгоритм определяет, на основе рабочей модели, следует ли увеличить или уменьшить вес соединения, или СИНАПС, между каждой парой нейронов.

На протяжении десятилетий многие Хинтона компьютерных моделей томился. Но благодаря прогрессу в области вычислительной мощности, ученых понимание мозга и сами алгоритмы, нейронные сети играют все более важную роль в неврологии. Sejnowski, заведующий Вычислительной Лабораторией Нейробиологии в Salk Institute for Biological Studies in La Jolla, Калифорния, сказал: “Тридцать лет назад, мы были очень сырой идеи; теперь мы начинаем тестировать некоторые из этих идей.”

Соседние файлы в папке статьи.англ