Крестный отец искусственного интеллекта" уходит из Google, чтобы открыто говорить об опасностях быстро развивающихся технологий

В понедельник в беседе с "Нью-Йорк Таймс" Джеффри Хинтон сказал, что часть его души сожалеет о том, чем он занимался всю жизнь.

Отредактировано 2023-25-06
Джеффри Хинтон стоит перед массивом компьютерных системДжеффри Хинтон помогал создавать нейронные сети, но теперь сожалеет об этом.

Джеффри Хинтон, которого некоторые называют "крестным отцом искусственного интеллекта", стал пионером в разработке технологий, лежащих в основе наиболее влиятельных и спорных систем искусственного интеллекта. Он также недавно покинул свой пост в Google, чтобы более свободно критиковать отрасль, которую он помог создать. В интервью The New York Times, опубликованном в понедельник, Хинтон подтвердил, что сообщил своему работодателю о своем решении в марте, а в прошлый четверг разговаривал с генеральным директором Google Сундаром Пичаи.

В 2012 году Хинтон, исследователь компьютерных наук из Университета Торонто, и его коллеги совершили прорыв в программировании нейронных сетей. Вскоре к ним обратилась компания Google с предложением работать вместе с ней над развитием этой технологии. Хотя в свое время исследователи относились к ней скептически, математические способности нейронных сетей к анализу огромных массивов данных впоследствии легли в основу таких потрясающих технологий ИИ, генерирующих тексты и изображения, как Google Bard и OpenAI GPT-4. В 2018 году Хинтон и два его давних соисследователя получили премию Тьюринга за вклад нейронных сетей в область ИИ.

Но в свете недавних противоречивых достижений ИИ Хинтон заявил в интервью The New York Times, что с тех пор его невероятно беспокоит гонка вооружений между компаниями. По его словам, он очень настороженно относится к траектории развития отрасли, которая практически не регулируется и не контролируется, и, по его словам, он частично "сожалеет о работе всей своей жизни". "Посмотрите, что было пять лет назад и что сейчас. Возьмите разницу и распространите ее вперед", - добавил Хинтон. "Это страшно".

Достижения в области ИИ показали огромные перспективы в традиционно сложных областях, таких как моделирование климата и выявление медицинских проблем, например, рака. "Идея о том, что эта штука может стать умнее людей - несколько человек верили в это", - сказал Хинтон во время интервью. "Но большинство людей считали, что это далеко не так. И я думал, что это далеко не так. Я думал, что до этого еще 30-50 лет или даже больше. Очевидно, я больше так не думаю".

Как сообщает New York Times, 75-летний исследователь сначала считал, что прогресс, наблюдаемый такими компаниями, как Google, Microsoft и OpenAI, предложит новые, мощные способы генерирования языка, хотя все еще "уступающие" человеческим возможностям. Однако в прошлом году технологические успехи частных компаний начали его беспокоить. Он по-прежнему утверждает (как и большинство экспертов), что эти системы нейронных сетей по-прежнему уступают человеческому интеллекту, но утверждает, что для некоторых задач и обязанностей ИИ может быть "на самом деле намного лучше".

После публикации материала The New York Times Хинтон обратился в Twitter, чтобы прояснить свою позицию, заявив, что он "ушел, чтобы говорить об опасностях искусственного интеллекта без учета того, как это влияет на Google". Хинтон добавил, что считает, что "Google действовал очень ответственно". В прошлом месяце в отчете Bloomberg, в котором приводились интервью с сотрудниками, указывалось, что многие в компании считают, что в процессе разработки ИИ в Google были допущены "этические промахи".

"Я утешаю себя обычным оправданием: если бы я этого не сделал, это сделал бы кто-то другой", - говорит Хинтон о своем вкладе в ИИ.