https://sputnik-georgia.ru/20230330/mask-i-drugie-top-menedzhery-it-kompaniy-prizvali-priostanovit-issledovanie-neyrosetey-276263479.html
Маск и другие топ-менеджеры IT-компаний призвали приостановить исследование нейросетей
Маск и другие топ-менеджеры IT-компаний призвали приостановить исследование нейросетей
Sputnik Грузия
Лаборатории разрабатывают и внедряют все более мощные системы, поведение которых не могут предсказать даже их создатели, утверждают авторы письма 30.03.2023, Sputnik Грузия
2023-03-30T18:49+0400
2023-03-30T18:49+0400
2023-03-30T18:55+0400
новости
в мире
наука
https://cdnn1.img.sputnik-georgia.com/img/07e6/07/09/268352465_0:134:3072:1862_1920x0_80_0_0_6a08996e7fbfdb43c27f9043f6510aeb.jpg
ТБИЛИСИ, 30 мар — Sputnik. Создатели искусственного интеллекта (ИИ) должны хотя бы на шесть месяцев остановить исследование мощных систем, сказано в открытом письме, опубликованном на сайте организации Future of Life, которая занимается снижением рисков для человечества, в том числе, связанных с ИИ.Письмо подписали глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Apple Стив Возняк, сооснователь Pinterest Эван Шарп, а также ряд экспертов в области искусственного интеллекта. Кроме того, авторы письма считают, что, если лаборатории не приостановят этот процесс, власти должны вмешаться и ввести мораторий. Согласно обширным исследованиям, системы ИИ с интеллектом, который можно сопоставить с человеческим, могут представлять серьезные риски для общества и человечества, сказано в письме.Маск может купить обанкротившийся банк США>>Перерыв в исследованиях мощных систем лаборатории независимые эксперты должны использовать для совместной разработки и внедрения общего набора протоколов безопасности. Их соблюдение должны контролировать независимые эксперты. Авторы письма считают, что разработчики ИИ должны сотрудничать с политиками для создания системы управления в данной сфере. Система управления должна включать: новые дееспособные регулирующие органы, занимающиеся вопросами искусственного интеллекта; надежную систему проверки и сертификации; контроль более продвинутых систем ИИ.В настоящее время лаборатории не осуществляют соответствующий контроль и, стремясь обогнать друг друга, разрабатывают и внедряют все более мощные системы, поведение которых не могут предсказать даже их создатели.GPT-4 – это большая мультимодальная модель ИИ, которая может обрабатывать как текстовые, так и графические данные и выдавать текстовые ответы. Во многих реальных сценариях GPT-4 все еще уступает людям? на различных профессиональных и академических тестах модель демонстрирует производительность на уровне человека.Подписывайтесь на наш канал в Telegram>>
Sputnik Грузия
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
Sputnik Грузия
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
Новости
ru_GE
Sputnik Грузия
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdnn1.img.sputnik-georgia.com/img/07e6/07/09/268352465_165:145:2702:2048_1920x0_80_0_0_44ede68c2881547f20ee763336fb427f.jpgSputnik Грузия
media@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
новости, в мире, наука
Маск и другие топ-менеджеры IT-компаний призвали приостановить исследование нейросетей
18:49 30.03.2023 (обновлено: 18:55 30.03.2023) Лаборатории разрабатывают и внедряют все более мощные системы, поведение которых не могут предсказать даже их создатели, утверждают авторы письма
ТБИЛИСИ, 30 мар — Sputnik. Создатели искусственного интеллекта (ИИ) должны хотя бы на шесть месяцев остановить исследование мощных систем, сказано в открытом письме, опубликованном на сайте организации Future of Life, которая занимается снижением рисков для человечества, в том числе, связанных с ИИ.
Письмо подписали глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Apple Стив Возняк, сооснователь Pinterest Эван Шарп, а также ряд экспертов в области искусственного интеллекта.
"Мы призываем все лаборатории, исследующие искусственный интеллект, немедленно прекратить хотя бы на шесть месяцев тренировки всех систем мощнее GPT-4. Эта пауза должна быть публичной и действительной", – говорится в письме.
Кроме того, авторы письма считают, что, если лаборатории не приостановят этот процесс, власти должны вмешаться и ввести мораторий.
Согласно обширным исследованиям, системы ИИ с интеллектом, который можно сопоставить с человеческим, могут представлять серьезные риски для общества и человечества, сказано в письме.
Перерыв в исследованиях мощных систем лаборатории независимые эксперты должны использовать для совместной разработки и внедрения общего набора протоколов безопасности. Их соблюдение должны контролировать независимые эксперты.
Авторы письма считают, что разработчики ИИ должны сотрудничать с политиками для создания системы управления в данной сфере. Система управления должна включать: новые дееспособные регулирующие органы, занимающиеся вопросами искусственного интеллекта; надежную систему проверки и сертификации; контроль более продвинутых систем ИИ.
В настоящее время лаборатории не осуществляют соответствующий контроль и, стремясь обогнать друг друга, разрабатывают и внедряют все более мощные системы, поведение которых не могут предсказать даже их создатели.
GPT-4 – это большая мультимодальная модель ИИ, которая может обрабатывать как текстовые, так и графические данные и выдавать текстовые ответы. Во многих реальных сценариях GPT-4 все еще уступает людям? на различных профессиональных и академических тестах модель демонстрирует производительность на уровне человека.