ИИ: Когда он уверенно говорит ерунду — примеры и советы

🤯 ИИ стал мощным инструментом, но порой он всё ещё сдаёт позиции.

Иногда ловлю моменты, когда он очень уверенно… несёт чушь ))

Какие случаи я замечал:

1️⃣ Откровенная ложь

Когда ИИ не знает — но отвечает уверенно. Вы спрашиваете: «Какие функции появились в последнем обновлении сервиса N?». ИИ выдумывает три функции, которых никогда не было ))

2️⃣ Выдуманные цитаты и источники

Просите привести исследование — он выдаёт название, которого нет в природе. Просите цитату — он сочиняет её «в стиле автора».

3️⃣ Ошибки логики и структуры

ИИ делает выводы, которые никак из текста не следуют. Например: «Этот тариф самый выгодный, потому что он… самый популярный».

Дело в том, что ИИ стремится быть полезным, даже когда информации недостаточно.

В таких ситуациях я использую промпты-проверки:

Проверь, какие части твоего ответа основаны на фактических данных, а какие — на вероятностных догадках. Пометь догадки отдельно.

Дай только реальные источники, которые можно открыть и проверить. Не выдумывай цитаты и исследования.

Проанализируй свой ответ и найди возможные ошибки логики, упрощения или некорректные выводы.

Оцени, достаточно ли информации, чтобы ответить точно. Если данных мало — скажи об этом и уточни вопросы.

У кого было такое, что ИИ уверенно говорил ерунду?

Поделитесь примером 😁