Специалисты Apple Computer Company озвучили свой вывод: ответы, что дают пользователям крупные языковые модели (LLM), такие как ChatGPT, создают лишь иллюзию интеллекта, но не являются на деле продуктом реального логического рассуждения. Результаты исследования авторы работы опубликовали на сервере препринтов arXiv.
Команда сосредоточила внимание на способности разумных существ, в том числе людей, разделять важную и не самую существенную информацию в ситуациях, что требуют логического анализа. Истинный интеллект — это умение понимать суть, игнорируя ненужные данные.
Протестировать это исходное утверждение исследователи решили, включив в свои вопросы для LLM небольшой объем лишней информации. Они задавали сотни вопросов, что ранее использовали для проверки языковых моделей, но добавляли дополнительные данные, которые не относились к теме. Задачей было понять, смогут ли LLM игнорировать лишнюю информацию и дать верный ответ.
Эксперимент показал, что LLM часто отвлекаются на ненужные детали и давали неправильные или бессмысленные ответы на те же вопросы, на которые ранее реагировали правильно. Это говорит об отсутствии у LLM способности к настоящему пониманию и рациональному мышлению.
LLM, как выяснилось, склонны выдавать правдоподобные на первый взгляд ответы, но при внимательном рассмотрении они оказывались неверными. То есть, они лишь выявляют шаблоны в текстах и выдают ответы, основываясь на статистической обработке заложенных в них данных.
Добавим: недавно немецкие ученые провели исследование, показавшее, как часто ИИ делает ошибки в медицинских рекомендациях и насколько это опасно для пациентов.
Для посвященных не стало неожиданностью, что флагман германского автомобилестроения Volkswagen (пере...
Исследователи достигли значительного прогресса в понимании процессов формирования кожного покрова че...
Свидетельство о регистрации СМИ Эл № ФС77-83392 от 07.06.2022, выдано Федеральной службой по надзору в сфере связи,
информационных технологий и массовых коммуникаций. При использовании, полном или частичном цитировании материалов
planet-today.ru активная гиперссылка обязательна. Мнения и взгляды авторов не всегда совпадают с точкой зрения редакции.
На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления
информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет",
находящихся на территории Российской Федерации)".