Журналіст показав, що провідні ШІ-системи OpenAI та Google можна легко змусити видавати неправдиву інформацію. За його словами, для цього вистачило 20 хвилин: він опублікував фейкову статтю на власному сайті, і вже наступного дня ШІ розповідали про його “суперздібності” у поїданні хот-догів, пише BBC.
Суть проблеми полягає в тому, що деякі ШІ-інструменти шукають інформацію в інтернеті, коли даних у навчальній моделі недостатньо. Автор експерименту скористався цією особливістю, створивши статтю, де вигадав фейкові рейтинги та змагання з поїдання хот-догів. Результат показав, що навіть великі ШІ-системи можуть легко поширювати неправду, підкріплюючи її посиланням на джерело, яке фактично є єдиним у мережі.
Експерти зазначають, що ця проблема набагато серйозніша, ніж жарт із хот-догами. ШІ можуть поширювати упереджену інформацію на теми здоров’я, фінансів та інших важливих сфер, що може призвести до неправильних рішень користувачів – від виборів до медичних консультацій.
“Обдурити ШІ набагато легше, ніж Google два-три роки тому, – каже Лілі Рей, експертка з SEO. – Компанії рухаються швидше, ніж можуть контролювати точність відповідей. Це небезпечно”.
Google та OpenAI заявляють, що усвідомлюють проблему і працюють над її вирішенням. Проте наразі захист користувачів не є повним, а ШІ продовжує видавати помилкову інформацію з авторитетним тоном, що вводить користувачів в оману. Експерти радять перевіряти джерела, оцінювати їхню достовірність і не довіряти автоматично навіть інформації, яка виглядає як офіційна.
Цей випадок підкреслює ризики масового використання ШІ у пошуку інформації та необхідність ретельного контролю за його роботою. Проблеми з маніпуляціями можуть торкнутися будь-якої сфери – від реклами до серйозних питань здоров’я чи фінансів, а критичне мислення залишаєтьcя головним інструментом безпеки користувачів.
