Главная / Наука и технологии / Нейросети уничтожат человечество. Правда или нет?

Нейросети уничтожат человечество. Правда или нет?

Нейросети уничтожат человечество. Правда или нет? Споры о том, уничтожит ли искусственный интеллект человечество, по-прежнему не утихают среди ученых. Изображение: static1.makeuseofimages.com. Фото.

Споры о том, уничтожит ли искусственный интеллект человечество, по-прежнему не утихают среди ученых. Изображение: static1.makeuseofimages.com

Некоторые исследователи в области машинного обучения считают, что нейросети будут становится все более неуправляемыми и, возможно, выйдут из-под контроля, грозя человечеству катастрофой и даже вымиранием. Их коллеги, напротив, полагают, что опасность современных интеллектуальных систем не включает в себя вымирание человечества, а ряд ученых просто паникеры. Так кто же из них прав? И как это понять? Один из возможных ответов предлагают авторы новой работы из Научно-исследовательского института прогнозирования (Forecasting research institute), которые попросили экспертов в области ИИ и другим экзистенциальным рискам, а также специалистов по успешному прогнозированию мировых событий, оценить опасность, которую представляет собой искусственный интеллект. Рассказываем, что они выяснили.

ИИ (искусственный интеллект) – это компьютерные системы, которые могут выполнять задачи, обычно требующие человеческого интеллекта, например, распознавание речи и принятие решений.

ИИ уничтожит человечество

Мы уже не раз рассказывали о том, что ИИ-системы могут представлять собой серьезную угрозу для будущего человечества. Да что уж там, писатели-фантасты просто обожают эту тему, а такие фильмы как «Я,робот» и «Терминатор» давно стали культовыми. Многие именитые ученые, к слову, всерьез обеспокоены потенциальными рисками, которые несет в себе искусственный интеллект.

Одним из тех, кто открыто и последовательно выражал свои опасения по поводу угрозы ИИ для человечества был профессор Стивен Хокинг, который неоднократно заявлял, что развитие ИИ может стать «либо худшим, либо лучшим событием в истории человечества». Он предупреждал, что если ИИ будет создан и наделен сверхчеловеческим интеллектом, то непременно может выйти из-под контроля и уничтожить нашу цивилизацию.

ИИ уничтожит человечество. Выдающийся физик-теоретик Стивен Хокинг неоднократно высказывался о возможной угрозе ИИ. Изображение: analyticsindiamag.com. Фото.

Выдающийся физик-теоретик Стивен Хокинг неоднократно высказывался о возможной угрозе ИИ. Изображение: analyticsindiamag.com

Профессор Ник Бостром, директор Института будущего человечества в Оксфордском университете, также предупреждает о возможных опасностях ИИ. В своей книге «Суперинтеллект: Пути, опасности, стратегии» он описывает сценарии, при которых создание сверхинтеллектуального ИИ может привести к катастрофическим последствиям для человечества. Бостром подчеркивает необходимость разработки мер безопасности и этических принципов для управления развитием ИИ.

Больше по теме: Может ли искусственный интеллект уничтожить человечество уже к 2035 году?

Другой видный исследователь, выступающий за осторожный подход к развитию ИИ — это Стюарт Рассел, профессор компьютерных наук в Калифорнийском университете в Беркли. Рассел выражает беспокойство по поводу того, что ИИ может стать настолько умным, что мы не сможем предсказать его действия. Он также считает, что необходимо разработать безопасные и этически обоснованные методы для создания и контроля ИИ.

Как видите, опасения по поводу потенциальных угроз ИИ выражаются многими учеными и специалистами в области технологий, а точку зрения одного из наиболее известных критиков ИИ, Элиезере Юдковском, мы рассказывали здесь.

Нейросети – полезный инструмент

Нейросети – это системы ИИ, основанные на структуре и функциях человеческого мозга, которые могут учиться и адаптироваться, выполняя сложные задачи.

Среди ученых и экспертов, которые считают, что искусственный интеллект не представляет серьезной угрозы для человечества, можно выделить несколько видных фигур. Эти специалисты подчеркивают потенциал ИИ в улучшении жизни и решение множества проблем, с которыми сталкивается человечество.

Нейросети – полезный инструмент. Многие исследователи считают ИИ полезным инструментом, а не угрозой. Изображение: images.unsplash.com. Фото.

Многие исследователи считают ИИ полезным инструментом, а не угрозой. Изображение: images.unsplash.com

Одним из них является Родни Брукс, бывший директор лаборатории искусственного интеллекта Массачусетского технологического института и один из основателей компании iRobot. Брукс известен своим скептицизмом по поводу апокалиптических предсказаний о будущем ИИ и утверждает, что опасения о том, что ИИ уничтожит человечество, основаны на преувеличениях и недостаточном понимании текущего состояния технологий. По его мнению, мы еще далеки от создания ИИ, который мог бы представлять реальную угрозу.

Хотите всегда быть в курсе последних новостей в области научных открытий и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Еще один известный эксперт, придерживающийся позитивного взгляда на развитие ИИ — это Эндрю Нг, профессор Стэнфордского университета и один из основателей Coursera. Нг рассматривает ИИ как мощный инструмент для улучшения жизни людей.

Текущие достижения в области ИИ, такие как распознавание изображений и обработка естественного языка, приносят огромную пользу в медицине, образовании и других областях. Страхи перед ИИ часто преувеличены, а основное внимание следует уделять решению более насущных проблем, таких как обеспечение этического использования технологий и защита данных, – отмечает он.

Ян Лекун, глава отдела искусственного интеллекта в Facebook и один из пионеров глубокого обучения, также выражает оптимизм по поводу ИИ. Лекун считает, что ИИ может принести значительные выгоды для общества, если будет правильно разработан и использован. Он подчеркивает важность междисциплинарного подхода и сотрудничества между учеными, инженерами и обществом для создания безопасных и полезных ИИ-систем. Лекун также указывает на необходимость реалистичного восприятия возможностей и ограничений современных технологий ИИ.

Нейросети – полезный инструмент. Искусственный интеллект меняет мир. Но в какую сторону? Изображение: worldview.stratfor.com. Фото.

Искусственный интеллект меняет мир. Но в какую сторону? Изображение: worldview.stratfor.com

Еще один пример позитивного подхода к ИИ — это Орен Этциони, генеральный директор Института искусственного интеллекта Аллена. Этциони утверждает, что ИИ не представляет экзистенциальной угрозы для человечества. Он считает, что текущее развитие ИИ направлено на решение конкретных задач и улучшение жизни людей. По его мнению, необходимо сосредоточиться на регулировании и этических аспектах использования ИИ, а не на страхах о возможном уничтожении человечества.

Не пропустите: Искусственный интеллект уничтожит человечество в 2075 году

Кто прав?

Итак, как же понять кто из ученых прав и чем грозят миру современные интеллектуальные системы? Ответ на этот вопрос попытались найти исследователи из Научно-исследовательского института прогнозирования, попросив экспертов в области машинного обучения и прогнозистов оценить опасность, которую представляет собой ИИ.

Результат оказался не менее противоречивым, чем мнения ученых, представленные выше – две группы опрошенных экспертов во многом расходились во мнениях. Более того, эксперты, участвовавшие в исследовании, в целом нервничали гораздо больше, чем прогнозисты, и делали гораздо более высокие ставки на катастрофу.

Кто прав? Искусственный интеллект – лишь один из глобальных рисков, угрожающих человечеству. Изображение: images.squarespace-cdn. Фото.

Искусственный интеллект – лишь один из глобальных рисков, угрожающих человечеству. Изображение: images.squarespace-cdn

Авторы исследования, опубликованного на официальном сайте института, хотели знать, почему эксперты так сильно расходятся во мнениях и организовали так называемое “состязательное сотрудничество”: заставив обе группы испытуемых специалистов потратить много часов (в среднем 31 час для экспертов и 80 часов для прогнозистов) на чтение новых материалов об ИИ и на обсуждение этих вопросов с людьми, придерживающимися противоположных взглядов, с модератором.

Читайте также: Нейросети научились врать и делают это намеренно

Идея заключалась в том, чтобы выяснить, сможет ли предоставление каждой группе дополнительной информации и лучших аргументов другой группы заставить их изменить свое мнение. Исследователям также было любопытно найти «ключевые моменты»: вопросы, которые помогают объяснить убеждения той или иной группы и информация, способная изменить их мнение. Основное внимание авторы работы уделили разногласиям по поводу потенциала ИИ либо уничтожить человечество, либо стать причиной экономического коллапса.

Кто прав? Единого мнения относительно того, является ли ИИ угрозой или нет, по-прежнему нет. Изображение: static.wixstatic.com. Фото.

Единого мнения относительно того, является ли ИИ угрозой или нет, по-прежнему нет. Изображение: static.wixstatic.com

Результаты, как уже говорилось выше, оказались неоднозначными – сторонники идеи о том, что ИИ представляет собой угрозу для человечества снизили вероятность катастрофы до 2100 года с 25% до 20%, а оптимисты повысили ее с 0,1% до 0,12%. Иными словами обе группы остались на том же уровне, с которого начинали.

Отчет, тем не менее, впечатляет, так как представляет собой редкую попытку объединить умных, хорошо информированных людей, которые расходятся во мнениях. Хотя результаты исследования и не разрешили разногласий между экспертами, оно пролило свет на то, откуда эти разногласия вообще взялись.

Вам будет интересно: «Темная сторона» чат-ботов: от признаний в любви до разговоров с мертвыми

Глобальные риски

Конечно, существует ряд других рисков, связанных с ИИ, о которых стоит беспокоиться и со многими из которых мы сталкиваемся уже сегодня. Так, существующие системы искусственного интеллекта иногда демонстрируют тревожные предубеждения и отлично обманывают пользователей, аа значит их действительно можно использовать во вред. Но этот вред, хотя и является, безусловно, серьезным, явно меркнет по сравнению с «потерей контроля над ИИ, в результате чего все погибнут».

Так почему же эксперты в области машинного обучения так сильно расходятся во мнениях? Авторы научной работы полагают, что это не связано с различиями в доступе к информации или недостаточной осведомленностью о различных точках зрения.

Если бы это было так, то враждебное сотрудничество, которое заключалось в массовом ознакомлении с новой информацией и противоположными мнениями, изменило бы убеждения людей еще более кардинально, – говорится в статье.

Интересно, что большая часть разногласий также не объяснялась различными представлениями о том, что произойдет с ИИ в ближайшие несколько лет. Когда исследователи разделили оптимистов и пессимистов на пары и сравнили их шансы на катастрофу, разница в среднем составила 22,7%. Наиболее важное значение имели, однако, различия во взглядах на долгосрочное будущее.

Глобальные риски. Исследователи решили сосредоточиться на экстремальных, экзистенциальных сценариях. Изображение: media.licdn.com. Фото.

Исследователи решили сосредоточиться на экстремальных, экзистенциальных сценариях. Изображение: media.licdn.com

Оптимисты в целом полагали, что создание супер-ИИ займет больше времени, чем считают пессимисты. Многие ссылались на необходимость того, чтобы робототехника достигла человеческого уровня, а не только программного искусственного интеллекта и утверждали, что сделать это будет намного сложнее.

Вам будет интересно: Как нейросети меняют Интернет и учатся креативности?

Одно дело писать код и текст на ноутбуке, и совсем другое – научиться, будучи машиной, переворачивать блинчик, мыть кафельный пол или выполнять любую из многих других физических задач, в выполнении которых люди сегодня превосходят роботов. В конечном итоге языковые модели – это всего лишь модели языка, а не цифровые гипергуманоидные макиавелли, работающие на достижение своей цели.

Разногласия и ответы

Наиболее интересным источником разногласий, выявленным исследователями, было то, что они называют “фундаментальными мировоззренческими разногласиями”. Это причудливый способ сказать, что они расходятся во мнениях о том, на ком лежит бремя доказательства в дискуссии.

Обе группы согласны с тем, что «экстраординарные заявления требуют экстраординарных доказательств», но они расходятся во мнениях о том, какие заявления являются экстраординарными. Удивительно ли верить в то, что искусственный интеллект убьет все человечество, хотя человечество существует уже сотни тысяч лет, или же невероятно верить в то, что человечество продолжит выживать рядом с искусственным интеллектом, который умнее человека?», – резюмируют исследователи.

Разногласия и ответы. Единого ответа на столь сложные вопросы по-прежнему нет. Изображение: neurosciencenews.com. Фото.

Единого ответа на столь сложные вопросы по-прежнему нет. Изображение: neurosciencenews.com

Это, безусловно, не самый обнадеживающий вывод, к которому можно прийти в ходе исследования. Разногласия, вызванные конкретными расхождениями во мнениях о том, что произойдет в ближайшие несколько лет, легче разрешить, поскольку они основаны на том, как будут протекать следующие несколько лет, а не на глубоких, трудно поддающихся изменению различиях в представлениях людей о том, как устроен мир, и о том, на ком лежит бремя доказательства.

Читайте также: Глобальные риски: что угрожает нашей цивилизации?

Так или иначе, будущего мы не знаем, а искусственный интеллект в любом случае будет развиваться и дальше. Словом, простых ответов на сложные вопросы по-прежнему не существует.

Про Aleksiy77

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Яндекс.Метрика
Яндекс.Метрика