Tehnografi.com - Технологические новости, обзоры и советы

Илон Маск призывает прекратить обучение ИИ

Следующая статья поможет вам: Илон Маск призывает прекратить обучение ИИ

Поскольку искусственный интеллект (ИИ) продолжает развиваться, некоторые ключевые фигуры в этой области теперь призывают приостановить обучение ИИ из-за риска, который он представляет для человечества. Twitter генеральный директор Илон Маск, Apple соучредитель Стив Возняк и некоторые исследователи из DeepMind подписали открытое письмо Института будущего жизни, призывающее к временной приостановке разработки ИИ выше определенной мощности, предупреждая о потенциальных рисках, связанных с более совершенными системами. В письме утверждается, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке за разработку более мощных цифровых умов, которые даже их создатели не могут понять, предсказать или контролировать.

Институт будущего жизни — это некоммерческая организация, цель которой — направить преобразующие технологии от экстремальных крупномасштабных рисков к улучшению жизни. В своем открытом письме организация заявляет, что системы искусственного интеллекта с человеческим конкурентным интеллектом представляют серьезную опасность для общества и человечества. В письме предупреждается, что такие системы могут наводнить информационные каналы дезинформацией и заменить рабочие места автоматизацией. Передовые ИИ нужно разрабатывать с осторожностью, но вместо этого в последние месяцы лаборатории стремятся развернуть все более мощные системы.

Инвестиционный банк Goldman Sachs недавно опубликовал отчет, в котором говорится, что, хотя ИИ, вероятно, повысит производительность, миллионы рабочих мест могут быть автоматизированы. Однако другие эксперты утверждают, что влияние ИИ на рынок труда предсказать сложно. В письме Институт будущего жизни спрашивает: «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могли бы превзойти числом, перехитрить, перехитрить [sic] и заменить нас? Профессор Стюарт Рассел из Калифорнийского университета в Беркли, подписавший письмо, сказал BBC News, что системы искусственного интеллекта представляют значительный риск для демократии из-за дезинформации с применением оружия, для занятости из-за вытеснения человеческих навыков и образования из-за плагиата и демотивации.

Письмо также предупреждает о потенциальной будущей угрозе человеческому контролю над нашей цивилизацией со стороны передовых ИИ, но профессор компьютерных наук из Принстона Арвинд Нараянан раскритиковал письмо за игнорирование версии проблемы, которая уже наносит вред людям. Он обвинил письмо в сосредоточении внимания на «спекулятивном, футуристическом риске». OpenAI, компания, стоящая за ChatGPT, недавно выпустила GPT-4 — современную технологию, которая впечатлила наблюдателей своей способностью выполнять такие задачи, как ответы на вопросы об объектах на изображениях. OpenAI публично не прокомментировала это письмо.

Учитывая потенциальные риски, связанные с быстрым развитием ИИ, эксперты призывают к большей осторожности при разработке ИИ. В частности, они призывают лаборатории немедленно приостановить как минимум на шесть месяцев обучение систем искусственного интеллекта, более мощных, чем GPT-4. Хотя ИИ может изменить общество, эксперты утверждают, что такая трансформация не должна происходить за счет безопасности и контроля человека.

В долгосрочной перспективе принятие разумных мер предосторожности — это небольшая цена за снижение рисков, связанных с передовыми ИИ. Однако эксперты также утверждают, что риски трудно предсказать и что мы должны действовать с осторожностью, чтобы избежать непредвиденных последствий. Институт будущего жизни призывает разработчиков ИИ учитывать потенциальные последствия своей работы в будущем и тщательно следить за тем, чтобы передовые ИИ разрабатывались с осторожностью.

В целом, призыв приостановить обучение ИИ выше определенного уровня отражает растущую озабоченность по поводу рисков, связанных с передовыми ИИ. Хотя мы еще многого не знаем о долгосрочных последствиях ИИ, эксперты призывают к осторожности, чтобы избежать потенциального вреда для общества и человечества. Быстрые темпы развития ИИ в последние годы заставили многих экспертов задуматься о том, что технология может выйти из-под контроля и что мы рискуем создать системы, которые мы не сможем понять или контролировать. Таким образом, призыв приостановить разработку ИИ является необходимым шагом, чтобы мы могли безопасно и ответственно использовать потенциал ИИ.