И это только то, что попало в новости. На деле, уверен, таких случаев сотни, и не только в праве или консалтинге, но и в финансах и даже медицине. А там цена ошибки гораздо выше.
Почему ИИ «выдумывает» ответы?
В OpenAI считают так называемые галлюцинации не злым умыслом, а особенностью модели. Она стремится дать хоть какой-то ответ, даже если он неточный. Команда уже учит модели честно говорить «не знаю», но остается вопрос, насколько качественные данные используются для их обучения.
Как жить с этим?
Проверяйте результат. А лучше используйте ИИ как помощника, а не исполнителя. Например, ChatGPT с браузером Atlas отлично подходит, чтобы быстро составить конспект или расшифровать видео.
P.S. Помните эксперимент с ИИ-ботами, которые торговали криптой? Там все вышло, мягко говоря, поучительно. Gemini потерял 99.4%, GPT-5 минус 74.3%, DeepSeek минус 2%, и только Qwen3 Max ухитрился заработать 11.9%.