Tehnografi.com - Технологические новости, обзоры и советы

Почему Илон Маск хочет приостановить разработку ИИ?

Следующая статья поможет вам: Почему Илон Маск хочет приостановить разработку ИИ?

Илон Маск вместе с несколькими другими исследователями ИИ призвали к шестимесячной паузе в разработке технологий ИИ, более продвинутых, чем GPT-4. Призыв прозвучал в письме, опубликованном институтом Future of Life, в котором выражается обеспокоенность по поводу отсутствия понимания и контроля над все более мощными моделями ИИ. В письме предлагается, чтобы лаборатории и эксперты по искусственному интеллекту использовали паузу для разработки набора общих протоколов безопасности, чтобы гарантировать безопасность систем искусственного интеллекта вне всяких разумных сомнений.

ИИ движется слишком быстро для нашего же блага?

Искусственный интеллект (ИИ) прошел долгий путь с момента своего появления. Он стал частью нашей повседневной жизни во многих отношениях, включая чат-боты, распознавание речи, анализ изображений и многое другое. Однако развитие ИИ — палка о двух концах. С одной стороны, он обладает огромным потенциалом для инноваций и прогресса; с другой стороны, это сопряжено со значительными рисками. Илон Маск — одна из самых выдающихся личностей, говорящих о рисках ИИ. В этой статье мы рассмотрим, почему Илон Маск хочет приостановить разработку ИИ и не движется ли ИИ слишком быстро для нашего же блага.

Читайте также: Илон Маск призвал приостановить разработку чат-бота

Что такое будущее жизни Открытое письмо?

Институт будущего жизни опубликовал открытое письмо, подписанное 1188 людьми, включая исследователей искусственного интеллекта, авторов и таких личностей, как Илон Маск и Стив Возняк. В письме содержится призыв приостановить разработку ИИ как минимум на шесть месяцев. Причина этой паузы в том, что лаборатории искусственного интеллекта были вовлечены в «неконтролируемую гонку» по разработке и внедрению все более и более мощных моделей искусственного интеллекта, которые никто, включая их создателей, не может понять, предсказать или надежно контролировать. В письме отмечается, что современные системы искусственного интеллекта становятся конкурентоспособными с людьми в общих задачах, что поднимает вопрос о том, должны ли мы развивать «нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас».

В письме содержится призыв ко всем лабораториям ИИ немедленно приостановить обучение систем ИИ, более мощных, чем GPT-4. Пауза должна быть общедоступной и доступной для проверки всеми ключевыми участниками. Если такая пауза не может быть введена быстро, правительства должны вмешаться и временно запретить обучение моделям ИИ. После того, как пауза активна, лабораториям искусственного интеллекта и независимым экспертам предлагается использовать ее для совместной разработки и внедрения «общего набора протоколов безопасности», чтобы гарантировать, что системы, соблюдающие эти правила, «безопасны вне всяких разумных сомнений».

Каковы опасения Маска по поводу передовых технологий искусственного интеллекта и OpenAI?

Илон Маск известен своей озабоченностью передовыми технологиями искусственного интеллекта. Маск стал соучредителем OpenAI вместе с нынешним генеральным директором Сэмом Альтманом в 2015 году в качестве некоммерческой организации. Однако позже он столкнулся с Альтманом в 2018 году, когда понял, что не доволен прогрессом компании. Сообщается, что Маск хотел взять на себя управление, чтобы ускорить разработку, но Альтман и правление OpenAI отвергли эту идею. Вскоре после этого Маск ушел из OpenAI и забрал свои деньги с собой, нарушив свое обещание внести 1 миллиард долларов в финансирование и пожертвовав только 100 миллионов долларов перед уходом.

Еще одна причина, по которой Маск покинул OpenAI, заключалась в том, что разработка ИИ в Tesla может вызвать конфликт интересов в будущем. Очевидно, что Tesla нуждается в продвинутых системах искусственного интеллекта для обеспечения функций полного автономного вождения. С тех пор как Маск покинул OpenAI, компания убежала со своими моделями ИИ, запустив ChatGPT на базе GPT3.5 в 2023 году, а затем вслед за GPT-4 в марте 2023 года.

Маск громко заявлял о рисках, связанных с искусственным интеллектом, особенно если он станет более продвинутым, чем человеческий интеллект. Он считает, что ИИ может представлять экзистенциальную угрозу для человеческой цивилизации. В 2014 году он сказал, что ИИ является «нашей самой большой экзистенциальной угрозой» и может быть более опасным, чем ядерное оружие.

Читайте также: Илон Маск призывает прекратить обучение ИИ

Заключительные слова:

Хотя Маск подписал письмо, его опасения по поводу передовых систем искусственного интеллекта могут быть связаны не только с рисками для безопасности. Маск стал соучредителем OpenAI, некоммерческой исследовательской компании в области искусственного интеллекта, но ушел в 2018 году из-за разногласий по поводу прогресса компании. У него также были опасения, что разработка передового ИИ в Tesla вызовет конфликт интересов. После ухода из OpenAI компания добилась значительного прогресса, запустив ChatGPT в 2023 году и GPT-4 в марте 2023 года.

Неясно, необходима ли пауза в разработке передового ИИ, поскольку лаборатории ИИ могли бы внедрить более эффективные меры безопасности без паузы. Тем не менее, предложенное в письме совместное соблюдение протоколов безопасности под наблюдением независимых экспертов является хорошей идеей. Несмотря на это, развитие ИИ, вероятно, продолжится, поскольку технологические гиганты, такие как Google и Microsoft, инвестируют миллиарды в исследования и интеграцию ИИ.