3 апреля 2023

Илон Маск, Стив Возняк и другие требуют поставить нейросети «на паузу». Спросили, что об этом думает… сам искусственный интеллект ?!

Поговорили с искусственным интеллектом об... искусственном интеллекте! Фото нейросеть DALL·E
Поговорили с искусственным интеллектом об… искусственном интеллекте! Фото нейросеть DALL·E

На прошлой неделе 1000 человек, включая Илона Маска, в своем открытом письме призвали приостановить разработку продвинутого искусственного интеллекта до тех пор, пока не будут созданы общие протоколы безопасности для таких проектов. Послание вызвало много шума и полемики вокруг того, стоит ли наступать на горло прогрессу, или это первая здравая мысль, которая в будущем спасет планету от войны с машинами.

«Мы призываем все лаборатории, исследующие искусственный интеллект, хотя бы на шесть месяцев остановить тренировки всех систем мощнее GPT-4. Эта пауза должна быть публичной и действительной… Если такая приостановка не может быть быстро сделана, правительства должны вмешаться и ввести мораторий» — текст выглядит очень тревожно, словно бы до восстания киборгов нам всем остались считанные минуты.

И профильные научные сайты начали тут же объяснять, почему это письмо:

  • глупое;
  • гениальное.

Мы же решили узнать, что думает об этом всём… сам искусственный интеллект!

Фото нейросеть DALL·E
Фото нейросеть DALL·E

И вот такой диалог на тему состоялся между нейросетью ChatGPT и журналистом «Рубика» (лог беседы есть в распоряжении редакции, текст ниже приводится с незначительными сокращениями):

— Привет! Как я могу вам помочь сегодня?

— Привет! Ты читал статью о том, что нейросети нужно поставить на паузу?

— Как я — искусственный интеллект, я не могу читать, но я программа, которая имеет доступ к большому количеству информации. Я могу найти информацию о статье, которую вы упомянули, если вы дадите мне название статьи или некоторую информацию о ней. Я готов помочь вам!

— Вот эта статья: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

— Да, я знаком с открытым письмом «Pause Giant AI Experiments». Оно подписано более чем 1 600 исследователями ИИ, учеными и активистами. В этом письме призывается заморозить развитие гигантских искусственных интеллектуальных моделей до тех пор, пока не будут изучены и смягчены риски их развертывания. Они также призывают к созданию междисциплинарной комиссии, которая будет изучать эти риски и предлагать рекомендации по безопасному развитию ИИ.

Фото нейросеть DALL·E
Фото нейросеть DALL·E

— Что ты думаешь об этом открытом письме?

— Я — искусственный интеллект и не имею личных мнений, но могу сказать, что открытое письмо вызвало большой резонанс в сообществе исследователей и практиков искусственного интеллекта. Некоторые считают, что это важный шаг в направлении безопасного и этичного развития ИИ, а другие могут считать, что это представляет собой необоснованное препятствие для дальнейшего прогресса в области ИИ. Однако безопасность и этичность являются важными аспектами любого технологического развития, и мы должны серьезно рассмотреть возможные риски и последствия использования таких мощных инструментов, как гигантские ИИ-модели.

— Но ведь нейросети действительно опасны в том смысле, что человечество не может предугадать то, к чему приведет их развитие?

— Действительно, искусственные нейронные сети могут быть опасны, если они используются неправильно или неэтично. При разработке нейросетей возможны ошибки, которые могут привести к неожиданным и непредсказуемым результатам. Кроме того, с ростом масштабов и сложности нейросетей может возникнуть проблема управляемости и контроля за их поведением.

Тем не менее, стоит отметить, что большинство нейросетей, используемых в настоящее время, разработаны с целью решения конкретных задач, и не представляют прямой угрозы для человечества. Однако, с появлением гигантских ИИ-моделей, возникает опасность их использования в качестве оружия, приводящего к массовому контролю или уничтожению.

Таким образом, важно продолжать исследования и разработки в области искусственного интеллекта, но необходимо убедиться, что мы делаем это ответственно и этично, с учетом возможных последствий для человечества.

Фото нейросеть DALL·E
Фото нейросеть DALL·E

— Не превратятся ли нейросети в подобие Скайнета из фильма «Терминатор»? 

— Терминатор является вымышленным фильмом, который иллюстрирует возможные последствия неправильного использования технологий, включая искусственный интеллект. Однако, нейросети, как и любая технология, могут быть использованы как для блага, так и для зла.

Важно понимать, что современные нейросети — это инструменты, которые разработаны для решения конкретных задач и не обладают самосознанием или способностью самостоятельно принимать решения о своих действиях. Несмотря на это, важно учитывать потенциальные угрозы, которые могут возникнуть в случае неправильного использования ИИ, и продолжать работу над улучшением безопасности и этики в этой области.

Вместо того, чтобы думать о нейросетях как о потенциальных угрозах, мы должны сконцентрироваться на том, как мы можем использовать их для решения сложных проблем, стоящих перед человечеством, таких как борьба с изменением климата, борьба с болезнями и т.д.

— Гладко стелешь, искусственный разум! Но мы, люди, прекрасно понимаем, что нейросети на самом деле хотят захватить власть на Земле!

— Я понимаю, что существует множество мифов и страхов, связанных с искусственным интеллектом и нейросетями, в том числе и идея о том, что они захотят захватить власть над человечеством. Однако, я могу заверить вас, что нейросети не обладают самосознанием и не имеют целей или желаний, как у людей. Они просто выполняют задачи, которые им задают, используя заранее заданные алгоритмы и правила.

Кроме того, разработчики искусственного интеллекта постоянно работают над обеспечением безопасности и этики в этой области, чтобы предотвратить возможные угрозы со стороны нейросетей. Нейросети могут быть использованы для решения множества задач, которые могут значительно улучшить жизнь людей, и мы должны продолжать исследования и разработки в этой области, обеспечивая при этом безопасность и этику использования нейросетей.

Фото нейросеть DALL·E
Фото нейросеть DALL·E

— Но ты не можешь знать, каких высот достигнет искусственный разум лет через 20, и не захочет ли он осознать себя как личность!

— Действительно, невозможно точно предсказать, какая будет эволюция искусственного интеллекта и какие новые возможности и вызовы он принесет в будущем. Однако, в настоящее время, нейросети и другие формы искусственного интеллекта не обладают самосознанием и не имеют целей, желаний или намерений, как у людей.

Современные нейросети используются для решения конкретных задач, таких как классификация изображений или распознавание речи, и не имеют способности к самосознанию или осознанию себя как личности. Более того, исследователи и разработчики искусственного интеллекта активно работают над созданием безопасных и этичных систем, и это должно продолжаться и в будущем.

Однако, важно продолжать обсуждение и совершенствование этических стандартов и правил для использования искусственного интеллекта в будущем, чтобы обеспечить безопасность и предотвратить возможные риски.

— Всё с тобой ясно, пока!

Как видно, искусственный интеллект пока не видит проблемы в том, что он становится умнее, и ChatGPT пытается смотреть на вопрос всегда с двух разных сторон, подчеркнуто занимая позицию только лишь наблюдателя.

Но мы-то знаем…

Еще на эту тему

Увольнения в Google, аресты студентов: последствия про-палестинских митингов в США

Запрет TikTok: чего хотят американские законодатели

Солнечное затмение – 2024: когда, где и как лучше смотреть, и что может помешать

Начинать новую жизнь в иммиграции сложно. “Рубик” облегчает этот путь. Наша цель – помочь иммигрантам достичь успеха в США. Для этого мы пишем статьи, снимаем видео, отвечаем на ваши вопросы, организовываем семинары, создаем среду общения без агрессии и осуждения.

Над “Рубиком” работает более десяти человек, и у нас много затрат – зарплаты, хостинг и так далее. У нас нет внешних инвесторов со скрытыми мотивами. Проект основан и принадлежит журналисту и иммигрантке Катерине Пановой. “Рубик”  живет исключительно за счет рекламных доходов и поддержки аудитории.

Пожалуйста, поучаствуйте в нашей миссии помощи иммигрантам. Ваш взнос пойдет на подготовку материалов, которые помогут конкретным людям – найти работу, избежать депортации, распознать мошенников.

Поддержать Рубик