Истории с GREEN.OBOB.TV

Green.obob.tv на Obob.tv: Чат-боты на основе искусственного интеллекта (ИИ) ошибаются в 40% (!) случаях. Но почему?

Иллюстративное сообщение.

Новое исследование Европейского вещательного союза (European Broadcasting Union, EBU) выявило, что чат-боты на основе искусственного интеллекта (ИИ) ошибаются в целых 40% (!) случаях. Причина в самой технологии ИИ: чат-боты на самом деле не понимают, что говорят. Они вычисляют, какие слова наиболее вероятно совпадут, основываясь на огромных объёмах текста, и не могут проверить истинность утверждения, полученного в результате таких расчётов. Они не знают фактов, а знают только статистические закономерности. Наш партнерский сайт Green.obob.tv опубликовал на днях на эту тему перевод сообщения немецкого государственного иновещания «Deutsche Welle» («Немецкая волна», в РФ признано СМИ-иноагентом) от 28 октября 2025 г. В указанном сообщении южноевропейской редакции этой станции, в частности, говорится: 

«Новое исследование Европейского вещательного союза выявило тревожный уровень ошибок в популярных чат-ботах на основе искусственного интеллекта (ИИ). Системы регулярно фальсифицируют информацию и даже ссылаются на ложные источники.

Только ChatGPT еженедельно используют 800 миллионов человек по всему миру. Для многих эти цифровые помощники уже стали заменой традиционного поиска Google. Однако, как показывает упомянутое исследование Европейского вещательного союза, такое доверие рискованно. Европейский вещательный союз, эта ассоциация из 68 общественных вещателей из 56 стран систематически проверяла надежность самых популярных систем искусственного интеллекта.

Результат исследования пугает: ChtGPT, Claude, Gemini и другие чат-боты придумывают до 40 процентов своих ответов и выдают их за факты…

Существует явление, которое специалисты называют «галлюцинацией» ИИ: искусственный интеллект фантазирует об информации, которая кажется связной, но не имеет под собой никакой фактической основы. Это особенно часто встречается в случае региональных событий, текущих событий или когда необходимо связать воедино множество фрагментов информации…

Проблема в системе: чат-боты на самом деле не понимают, что говорят. Они вычисляют, какие слова наиболее вероятно совпадут, основываясь на огромных объёмах текста, и не могут проверить истинность утверждения, полученного в результате таких расчётов. Они не знают фактов, а знают только статистические закономерности.

Технологические компании знают об этих недостатках и работают над их решением. Они интегрируют базы данных, улучшают систему цитирования и переобучают системы. В разработки инвестируются миллиарды. Тем не менее, галлюцинации остаются фундаментальной нерешённой проблемой технологий ИИ», — говорилось в сообщении немецкого иновещателя.

Полный текст перевода данного сообщения смотрите на сайте Green.obob.tv по ссылке

 

А что думаете вы? Комментируйте наши публикации здесь и на страницах наших социальных сетей. Нам важно ваше мнение.

Добавить комментарий