Нарушение завещания Нобеля: математикам вручили премию по физике
Альфред Нобель, наверное, перевернулся в гробу: пожалуй, впервые в истории Нобелевская премия была присуждена …
Альфред Нобель, наверное, перевернулся в гробу: пожалуй, впервые в истории Нобелевская премия была присуждена за откровенно математическое открытие, хоть, по словам представителей NobelPRIZ, оно и было совершено «с использованием физики». Речь идет об алгоритмах, позволяющих научить нейросеть «мыслить» путем глубокого машинного обучения. О том, чем ценна работа американца Джона Хопфилда из Принстонского университета и Джеффри Хинтона из Университета Торонто, а также о том, на чьи работы они опирались, мы поговорили с преподавателем Института интеллектуальных кибернетических систем НИЯУ МИФИ Романом ДУШКИНЫМ.
При объявлении лауреатов Нобелевской премии по физике-2024 ведущий церемонии объявил, что Джон Хопфилд создал ассоциативную память, которая может «сохранять и реконструировать изображения и другие типы паттернов в данных». А Джеффри Хинтон изобрел метод, который «позволяет машине автономно находить свойства в предоставленных ей данных», идентифицируя их по определенным элементам. Работы были написаны учеными в 1970-1980-х годах прошлого века.
– То, что произошло, – это беспрецедентный случай. Потому что премия по физике на самом деле является премией по математике! – говорит Роман Душкин. – Альфред Нобель не простил бы этого, наверное. Он же черным по белому завещал: «математикам не давать». Каким образом Нобелевский комитет обоснует теперь свое решение с правовых позиций, непонятно.
– Так что же представляют собой работы лауреатов?
– Еще раз повторюсь, – так называемая сеть Хопфилда (ее так назвали в честь ученого) – это математическая модель. Она достаточно фундаментальная, для решения отдельных классов оптимизационных задач. Это специфическая архитектура нейросети, которая может запоминать некоторое количество эталонных образов. Представьте себе тысячу нейронов, – каждый связан друг с другом. Когда мы на вход этой сети подаем некий сигнал, который несет в себе образ (может, не четкий, немного зашумленный), – она на выходе восстанавливает эталон. Фактически, это некий базовый фильтр, и работает он достаточно эффективно. Этот принцип применяется сейчас в распознавании образов, причем, под образами мы понимаем не только визуальные паттерны. Это могут быть голосовые или цифровые сигналы.
– А что привнес со своей стороны Джеффри Хинтон?
– Еще в 80-е годы прошлого века он стал отцом машинного обучения. В частности, он был одним из тех, кто предложил «метод обратного распространения ошибки». Он понял, как должны быть устроены нейронные сети для решения фундаментальных задач. И я не удивлен, что его работу так высоко отметили.
– В чем же заключается метод обратного распространения ошибки?
– Если у нас есть нейросеть, мы хотим, чтобы она сама «понимала», какой сигнал через нее прогоняем. К примеру, даем на вход фотографию кошки. В идеале она должна нам выдать ответ: «кошка». А она вдруг выдает: «лев». То есть, что-то близкое, но не точно, с определенным процентом ошибки. Слова «кошка» и «лев» закодированы в числовом виде. Что мы делаем? Мы вычитаем от числового вида слова «кошка» слово «лев». Получившаяся разница и называется ошибкой. Вот ее-то мы и начинаем прогонять по сети от самого последнего пункта до входного сигнала и постепенно корректируем понятийный аппарат машины. Заковыристые формулы, при помощи которых мы это делаем, как раз и предложил Хинтон.
– То есть, по сути, вы проводите работу над ошибкой, в результате которой машина после множества попыток начинает понимать что кошка это кошка?
– Да, на первых порах она может путаться, выдавать вместо кошки льва, но мы высчитываем, что на самом деле то, что нам нужно, условно является 0,25% от «льва» и так далее.
– Представляю, как необычно все это было для общества 1960-80 годов, когда многие обыватели даже не имели понятия о компьютере! Многие наверное, крутили пальцем у виска?
– Тогда эти работы не выходили из научных кругов. Единственными источниками, где об этом можно было прочитать, — были специализированные научные журналы. Кстати, именно с такого журнала, который попался мне на глаза в свое время, и началась моя эпопея с искусственным интеллектом. Шел 1986 год. Я нашел у дяди пачку журналов, подборку чего-то вроде «Радио и связь» за 1983 год. Один из тех журналов был полностью посвящен искусственному интеллекту. И вот представьте я, девятилетний школьник, полностью прочитываю его от корки до корки, заражаясь идеей об искусственном интеллекте на всю жизнь. В 1988 году, когда у меня появился первый ПК, я на нем пытался делать чат-бота по имени ELIZA, как было показано в журнале. Мало что получилось тогда, – компьютер был немного не тот, что был нужен. Но когда уже в 2000-м году я получал диплом инженера в области систем искусственного интеллекта, многие мне, действительно, говорили: «Ты себе карьеру портишь», – даже в начале XXI века не верили в развитие кибернетики.
– В тех журналах, которыми вы зачитывались, писалось об открытиях Хопфилда и Хинтона?
– Нет. Там говорилось о том, что такое искусственный интеллект, и каких результатов можно при помощи него достичь. А вообще нейросети придумали еще в 50-е годы прошлого века, – просто тогда ученым, математикам не хватило для их создания вычислительных мощностей. К примеру, первый нейрокомпьютер «Марк-1» был создан в 1958 году американцем Фрэнком Розенблаттом. «Нейроны» в нем соединялись друг с другом не фигурально, а буквально — они представляли собой железные коробочки, которые специально обученные женщины — операционистки соединяли проводами, меняя периодически связи между «нейронами».
– Получается, если бы сейчас был жив Розенблатт, то Нобелевскую премию должны были дать ему?
– Думаю, что ее были бы более достойны советские ученые-математики Андрей Николаевич Колмогоров и Владимир Игоревич Арнольд. Потому что они раньше всех вышеперечисленных, в 1957 году, доказали теорему, которая фактически лежит в основе всего глубокого машинного обучения. Хинтон в частности в своей работе делает многочисленные ссылки именно на работы Колмогорова и Арнольда. На их математических достижениях основано все, что происходило и происходит сейчас с нейросетями.
Комментарии 0