Ростелеком · 11 Декабрь 2025 г., 06:50 (МСК)
Рост публикаций об ИИ
Ростелеком сообщил о росте числа научных публикаций о галлюцинациях ИИ на 377% за три года.
Почему это важно: Активность в исследованиях ИИ может указывать на технологические приоритеты компании и ее потенциал.
Продолжить обсуждение
Источники (2)
Текст воспроизведён копированием из источника.
⬛️⬜️⚫️⚪️ «Ростелеком» зафиксировал рост публикаций о галлюцинациях ИИ
С 2022 по 2025 год ученые обнародовали около 4000 статей, в которых упоминались галлюцинации искусственного интеллекта (ИИ), подсчитал «Ростелеком». Количество публикаций на эту тему выросло на 377% за три года, оценила компания.
Интерес научного сообщества к теме вызван потребностью бизнеса максимизировать точность ИИ, поясняют разработчики. По их словам, исключить галлюцинации в генеративных моделях ИИ невозможно, можно лишь удерживать их число в «узком диапазоне».
Подробности на сайте Forbes
📸: Фото Getty Images
С 2022 по 2025 год ученые обнародовали около 4000 статей, в которых упоминались галлюцинации искусственного интеллекта (ИИ), подсчитал «Ростелеком». Количество публикаций на эту тему выросло на 377% за три года, оценила компания.
Интерес научного сообщества к теме вызван потребностью бизнеса максимизировать точность ИИ, поясняют разработчики. По их словам, исключить галлюцинации в генеративных моделях ИИ невозможно, можно лишь удерживать их число в «узком диапазоне».
Подробности на сайте Forbes
📸: Фото Getty Images
Текст воспроизведён копированием из источника.
🤖 Число статей о галлюцинациях ИИ выросло на 377% за три года
С начала 2022 года по первое полугодие 2025-го в международных источниках были опубликованы около 4 тысяч научных статей, посвященных галлюцинациям искусственного интеллекта, сообщили Forbes в «Ростелекоме». Прирост числа публикаций на эту тему составил 377% за три года, указано в «Мониторинге глобальных трендов цифровизации», представленном компанией.
«Это [галлюцинации ИИ] становится особенно критичным с ростом генеративных моделей, поскольку ошибки могут привести к опасным выводам. Например, медицинская модель ИИ способна неверно «поставить диагноз», — говорится в исследовании. Среди частых ошибок ИИ: фактические неточности, искажения смысла, ошибки интерпретации запроса, нарушения логики.
❤️ Читайте подробнее на сайте
@frank_media
С начала 2022 года по первое полугодие 2025-го в международных источниках были опубликованы около 4 тысяч научных статей, посвященных галлюцинациям искусственного интеллекта, сообщили Forbes в «Ростелекоме». Прирост числа публикаций на эту тему составил 377% за три года, указано в «Мониторинге глобальных трендов цифровизации», представленном компанией.
«Это [галлюцинации ИИ] становится особенно критичным с ростом генеративных моделей, поскольку ошибки могут привести к опасным выводам. Например, медицинская модель ИИ способна неверно «поставить диагноз», — говорится в исследовании. Среди частых ошибок ИИ: фактические неточности, искажения смысла, ошибки интерпретации запроса, нарушения логики.
❤️ Читайте подробнее на сайте
@frank_media