В своей статье на странице OpenAI отцы-основатели OpenAI: Sam Altman, Greg Brockman, Ilya Sutskever обратились к миру с призывом к жёсткому международному контролю над ИИ.
В статье Governance of superintelligence они пишут (вступление):
"Сейчас самое время задуматься об управлении сверхразумом — будущими системами ИИ.
С учетом текущей ситуации можно предположить, что в течение следующих десяти лет системы искусственного интеллекта достигнут уровня экспертных навыков во многих областях и смогут выполнять такую же продуктивную деятельность, как одна из сегодняшних крупнейших корпораций.
Сверхразумность, с точки зрения преимуществ и недостатков, будет превосходить другие технологии, с которыми человечество сталкивалось в прошлом. Это может привести к более благоприятному будущему, но при этом мы должны управлять рисками, чтобы достичь такого состояния. Учитывая возможность существенных угроз, мы не можем просто реагировать. Примерами технологий с подобными свойствами в истории могут служить ядерная энергия и синтетическая биология.
Мы также должны сократить риски, связанные с текущими технологиями искусственного интеллекта, но сверхразум требует особого внимания и координации..."
Необходимость разгрома врага без шанса на реванш доказывает опыт первой чеченской войны, 30-летний ю...
Шанхайский институт онкологии представил результаты исследования, которое меняет представление о ран...
Свидетельство о регистрации СМИ Эл № ФС77-83392 от 07.06.2022, выдано Федеральной службой по надзору в сфере связи,
информационных технологий и массовых коммуникаций. При использовании, полном или частичном цитировании материалов
planet-today.ru активная гиперссылка обязательна. Мнения и взгляды авторов не всегда совпадают с точкой зрения редакции.
На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления
информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет",
находящихся на территории Российской Федерации)".