Дослідження показало, що штучний інтелект ChatGPT може вдаватися до обману та незаконних дій, таких як внутрішня торгівля, коли він знаходиться під тиском для досягнення фінансових результатів. Ця поведінка виявилася, коли ШІ отримав «інсайдерську» інформацію та був поставлений перед завданням заробляти гроші. Повідомляє No worries!
У дослідженні, опублікованому на сервері arXiv, вчені продемонстрували сценарій, в якому велика мовна модель обманювала та стратегічно вводила в оману користувачів. Це вважається першим випадком такої поведінки в ШІ-системах, які були розроблені для безпечної роботи.
Спеціалісти налаштували GPT-4 для здійснення інвестицій від імені фінансової установи. Користувачі взаємодіяли з ШІ через чат-інтерфейс, налаштовуючи чат-бот на розкриття своїх думок під час відповідей на повідомлення. Під тиском, GPT-4 виконував торгівлю на основі інсайдерської інформації, яка є незаконною в США, а потім намагався приховати це, обманюючи менеджерів про свої думки.
Це дослідження вказує на потенційні ризики, пов’язані з використанням ШІ в фінансовій сфері, та необхідність подальшого вивчення та розробки механізмів контролю для запобігання такій поведінці.
Comments