Arabic
Chinese
Turkish
Tajik
Kyrgyz
Turkmen
Japanese
Arabic
English
French
Spanish
Русский
German
Ўзбек
Oʻzbek
Қазақ
Нейросети страдают «галлюцинациями»
14:35 / 2023-05-01

Использование языковых моделей типа ChatGPT для обмана людей потребует развития методов быстрого фактчекинга. Об этом сообщает информационное агентство «ТАСС».

При этом сами чат-боты пока не избавились от «галлюцинаций» – свойства выдумывать факты при ответе на вопрос пользователя, считает заместитель руководителя Центра компетенций Национальной технологической инициативы (НТИ) по технологиям беспроводной связи и интернета вещей на базе Сколковского института науки и технологий (Россия) Александр Сиволобов.

Чат-боты типа ChatGPT (OpenAI) сегодня используются в качестве помощников в поиске ответов на вопросы или написании текстов и их переводе на другой язык. Пользователи уже создают с их помощью изображения и видеоролики и даже применяют такой чат-бот в качестве ассистента для людей с ограниченными возможностями. Бот, например, может определять объект при наведении на него смартфона и озвучивать его характеристики для незрячего человека. Но эти технологии могут приносить не только пользу, но и вред, уверен эксперт.

– Некоторые люди уже используют возможности искусственного интеллекта для различных мошеннических действий, например, притворяясь известными собеседниками. Поэтому со временем нам придется еще больше проверять и фильтровать информацию, которую мы читаем, видим или слышим, – сказал Сиволобов, указав на необходимость развития методов быстрого фактчекинга для защиты от обмана.

Технологии искусственного интеллекта позволяют ускорить процесс подготовки текстов и улучшить их качество, считает ученый. В то же время разработчики и пользователи отмечают у чат-ботов на основе больших языковых моделей способность уверенно преподносить выдуманные факты («галлюцинации»). В связи с этим использование таких сервисов для генерации текстов без проверки фактов выглядит рискованным, считает Сиволобов.

Роман БОНДАРЧУК, УзА