Более 700 ученых, политиков, бизнесменов, знаменитостей и представителей правых СМИ США Стив Бэннон и Гленн Бек призвали прекратить работу, направленную на разработку искусственного интеллекта (ИИ), способного превзойти человеческие возможности, чтобы избежать рисков, которые он может представлять для человечества.
«Мы просим остановить развитие сверхинтеллекта до тех пор, пока не будет достигнут научный консенсус о том, что его можно создать контролируемым и безопасным образом, и пока не будет общественной поддержки», — говорится на странице инициативы Института будущего жизни, американской некоммерческой организации, которая регулярно предупреждает о вредном воздействии искусственного интеллекта.
Среди подписавшихся — «отцы» современной TN, такие как Джеффри Хинтон, лауреат Нобелевской премии по физике 2024 года, Стюарт Рассел, профессор информатики Калифорнийского университета в Беркли, или Йошуа Бензио, профессор Монреальского университета.
В список также вошли представители технологических компаний, таких как Ричард Брэнсон, основатель Virgin Group, и Стив Возняк, соучредитель Apple, политические деятели, такие как Стив Бэннон, бывший советник президента США Дональда Трампа и Сьюзен Райс, советник по национальной безопасности при Бараке Обаме, религиозные лидеры, такие как Паоло Бенади, советник Папы и главный эксперт Ватикана по искусственному интеллекту, а также знаменитости, такие как американец певец will.i.am или даже принц Гарри и его жена Меган Маркл.
Поддержка со стороны таких фигур, как Бэннон, отражает потенциально растущую обеспокоенность по поводу искусственного интеллекта среди правых популистов, отмечает Reuters, в то время, когда многие из них, связанные с Кремниевой долиной, взяли на себя важные роли в республиканской администрации президента США Дональда Трампа.
Стив Бэннон и Гленн Бек не сразу ответили на просьбу о комментариях.
Большинство крупных игроков в области искусственного интеллекта стремятся разработать общий искусственный интеллект (AGI), этап, на котором искусственный интеллект будет равен всем интеллектуальным способностям человека, а также сверхинтеллекту, который выйдет за рамки этих способностей.
По мнению Сэма Альтмана, главы OpenAI, создавшего ChatGPT, суперинтеллект может быть достигнут в течение пяти лет, как он объяснил в сентябре на мероприятии медиагруппы Axel Springer.
«Неважно, через два года или пятнадцать лет это будет, строительство чего-то подобного неприемлемо», — сказал AFP Макс Тегмарк, президент Института будущего жизни, поэтому компаниям не следует приступать к такой работе «без наличия нормативной базы».
«Мы можем быть за создание более мощных инструментов искусственного интеллекта, например, для лечения рака, и в то же время быть против суперинтеллекта», — добавил он.
Это действие перекликается с письмом исследователей и руководителей в области искусственного интеллекта, которое было обнародовано месяц назад во время Генеральной Ассамблеи ООН и содержало призыв к заключению «международных соглашений о красных линиях в области искусственного интеллекта» для предотвращения катастрофических последствий для человечества.
