Сегодня / 08:53
Причиной включения Данилы Поперечного* в список иноагентов стала партнерская программа YouTube
Сегодня / 20:53
X выплатила штраф, чтобы ее разблокировали в Бразилии. Суд заявил, что деньги перевели не тому банку
Сегодня / 19:57
Во Франции закрылся последний производитель аккордеонов
Сегодня / 18:43
Emirates запретила провозить в самолетах пейджеры и рации
Сегодня / 17:56
Президент Аргентины почти полностью повторил речь вымышленного президента США из «Западного крыла»
Сегодня / 16:46
Мужчинам предложили потягаться в армрестлинге. Они не знали, что против них играют профессионалки
Сегодня / 16:35
Ремейк «Бегущего человека» от Эдгара Райта и с Гленом Пауэллом выйдет в ноябре 2025 года
Сегодня / 15:38
Скончалась бывшая главная редакторка «Союзмультфильма» Татьяна Папорова
Сегодня / 14:59
Сотни зрителей не попали на концерт Big Baby Tape из‑за лишних билетов
Сегодня / 14:56
Telegram ищет разработчиков нового видеоплеера
Сегодня / 13:55
Лана Дель Рей призналась, что устала от внимания к ее новоиспеченному мужу
Сегодня / 12:41
В Госдуме разрабатывают законопроект о запрете «пропаганды квадроберства»
Сегодня / 12:37
Екатеринбуржец 8 лет грабил банки и не попадался благодаря бороде
Сегодня / 12:05
«Большую российскую энциклопедию» закроют и соединят с «Рувики»
Сегодня / 11:24
Энн Хэтэуэй вернется в «Дневниках принцессы-3»
Сегодня / 10:53
«ВК» удалил новый выпуск шоу «Что было дальше?»
Сегодня / 09:48
Адама Кадырова внесли в Книгу рекордов России
Сегодня / 03:07
В Москве арестовали учительницу пения по делу о домогательствах к несовершеннолетней ученице
Сегодня / 01:31
Билли Лурд снимется в комедии «Этот друг»
Сегодня / 00:52
Сирша Ронан призналась, что проходила прослушивание на роль Полумны Лавгуд в «Гарри Поттере»
Вчера / 23:59
Уровень ожирения в США впервые с 80-х пошел на убыль. Тенденцию связали с препаратами для похудения
Вчера / 23:47
В сети появился трейлер документального фильма о сериале «Остаться в живых»
Вчера / 22:45
Власти Таджикистана сообщили о «нарушении прав и свобод» своих граждан в РФ
Вчера / 22:43
Власти Польши решили построить оборонительные укрепления на границе с Россией
Вчера / 21:56
Родственники погибших в «Зимней вишне» подали иски к МЧС о компенсации морального вреда
Вчера / 21:46
Олимпийский чемпион по боксу помог полиции задержать преступника в Екатеринбурге
Вчера / 20:50
Ураган «Хелен» стал самым разрушительным для США со времен «Катрины»
Вчера / 20:45
РКН рассказал, как будет вести учет блогеров с 10 тыс. подписчиков. И сколько таковых вообще
Вчера / 20:25
Третью часть «Дневников принцессы» все же снимут. Режиссером станет Адель Лим
Вчера / 19:56
Цены на такси в Москве сравнялись с авиабилетами до Петербурга
Вчера / 19:26
Ким Кардашьян выступила в защиту братьев Менендес, убивших родителей в 1989 году
Вчера / 19:14
Павел Дуров впервые опубликовал архивное фото с дочерью и публично ответил Ирине Болгар
Вчера / 18:57
Telegram: сбои в работе были связаны с «недавними событиями на Ближнем Востоке»
Вчера / 18:05
Власти Калининграда планируют ввести туристический налог в 2025 году
Вчера / 18:04
Джаред Лето выступил в Хельсинки с уличным музыкантом, которого встретил в день концерта

По мнению исследователей из Google и Оксфорда, один из видов ИИ способен уничтожить человечество

14 сентября 2022 в 15:17
Nick Amoscato/Flickr

Группа исследователей из Оксфордского университета и подразделения Google под названием DeepMind, занимающегося искусственным интеллектом, выложила научную работу, в которой заявила, что одна из разновидностей ИИ — модель GAN — способна в определенный момент в будущем уничтожить человечество. На публикацию обратил внимание Vice.

Что такое GAN (англ. Generative Adversarial Network, генеративно-состязательная сеть)? Объясняет другой сотрудник Google Макс Страхов: «Эта модель может быть описана как две подмодели, которые соревнуются друг с другом, и одна из этих моделей (генератор), пытается научиться в некотором смысле обманывать вторую (дискриминатор). Для этого генератор генерирует случайные объекты, а дискриминатор пытается отличить эти сгенерированные объекты от настоящих объектов из тренировочной выборки. В процессе обучения генератор генерирует все более похожие на выборку объекты, и дискриминатору становится все сложнее отличить их от настоящих».

Исследователи отмечают, что GAN — одна из самых продвинутых разновидностей ИИ. «Мы называем некоторую сущность продвинутой в том смысле, в котором она может эффективно выбирать, как действовать, чтобы с высокой вероятностью достичь выгоды в большом числе различных сред», — указывают они в работе.

Если такая нейросеть наделена какой‑либо важной для общества функцией, то однажды она может оказаться заинтересованной в том, чтобы создать для себя такие обманные стратегии, с помощью которых она будет выполнять свои задачи (и получать вознаграждение — генерировать все более совершенные ответы), нанося параллельно вред для человечества, говорят ученые.

В представлении авторов работы, жизнь на Земле может превратиться в противостояние человека, который непрерывно нуждается в ресурсах, и суперобученного ИИ, который будет пытаться захватить все возможные ресурсы для продолжения своей работы и защищаться от все усиливающихся попыток людей остановить его.

«Если бы дело происходило в мире, ресурсы которого бесконечны, я бы очень сомневался, чем это обернется. Но учитывая конечность ресурсов, за них неизбежно возникнет конкуренция», — заявил ведущий автор работы, оксфордский кандидат наук Майкл Коэн.

Он добавил: «Если ты находишься в противостоянии с неким агентом, который способен перехитрить тебя на каждом шагу, то не стоит ждать от себя победы. Второй важный момент: такой алгоритм будет жаждать все большей и большей энергии». Результат этого — нулевая сумма: выигрыш одного эквивалентен проигрышу другого.

Авторы проекта под руководством Коэна выдвигают ряд гипотез: ИИ уподобится человеку, превзойдет его во всех смыслах, заберет у общества контроль и начнет ту самую игру с нулевой суммой за ресурсы. Исследователи заявляют, что «почти все из предположений спорные и связанных с ними событий, по-видимому, можно избежать», но если они все же будут воплощены, то это обернется катастрофой.

Концепция ученых отчасти укладывается в идею технологической сингулярности, которую развил Рэй Курцвейл. Согласно его прогнозам, эволюция технологий в итоге приведет человечество к ситуации, когда компьютеры станут в миллиарды раз умнее людей и будут сами контролировать свое развитие, а прогресс ускорится настолько, что человек будет не в состоянии его понимать.

Курцвейл обещал наступление такого состояния к середине 40-х годов XXI века, а к концу столетия сингулярность должна распространиться на всю Вселенную. После его идей, правда, пришло представление о том, что технологическая сингулярность — лишь этап развития техники, а сложные ИИ-средства человек поставит себе на службу.

Расскажите друзьям
Теги: