Чат-бот утверждает, что мэр был замешан в скандале со взятками иностранным чиновникам и получил за это срок. Однако в действительности мэр сообщил о взятках и избежал тюрьмы.
Поймать бота на лжи элементарно. Чем более узкой является тема разговора, тем выше вероятность ошибки. С чем же это связано?
В первую очередь, с техническими особенностями работы ИИ и генерации ответа. Эксперты неоднократно отмечали, что ИИ может испытывать галлюцинации.
Может, создатели ИИ прикладывают все силы, чтобы повысить достоверность ответов??
Как бы не так. Тестировщики Google жалуются на недостаток времени на проверку ответов Bard. Это связано с бешеным темпом работ в попытках догнать Microsoft. В такой ситуации, сами понимаете, не до скрупулёзных проверок.
А теперь вспомним, что недавно в сети писали про забавный случай, когда боты от Microsoft и Google ссылались друг на друга, выдавая при этом неверную информацию. Так замыкается круг дезинформации.
С галлюцинациями все понятно, а может ли ИИ лгать умышленно?
Да, такое возможно, но умысел в таком случае будет продиктован теми, кто настраивает алгоритм выдачи информации.
Уже сейчас добавлены всевозможные фильтры для следования современным трендам политкорректности. Если вы попробуете поговорить с ChatGPT на какую-нибудь острую тему и не будете прибегать к ухищрениям, то бот будет выдавать максимально сухую, безэмоциональную информацию. Да, бывают фактические ошибки, но это связано с несовершенством технологии.
Однако это вопрос времени, когда ИИ научат специально искажать факты, чтобы донести “правильную” точку зрения.
И если учитывать, что крупнейшие ИИ-проекты находятся в руках американских корпораций, несложно представить, что такой инструмент захотят использовать для влияния на сознание электората, информационной войны и других благих дел.
Так что, друзья, наслаждайтесь “первобытным” неиспорченным ИИ, пока есть такая возможность.