Колишній співробітник OpenAI зробив шокуюче зізнання про ChatGPT та обман користувача

Коли Стівен Адлер, колишній фахівець із безпеки в OpenAI, ознайомився зі статтею The New York Times про канадця Аллана Брукса, його вразила глибина занурення людини в ілюзії, які формує ШІ. Брукс, батько трьох дітей, настільки захопився спілкуванням із ChatGPT, що почав нехтувати сном і їжею, вірячи у власне «відкриття» нового розділу математики, здатного змінити світ.

Ця одержимість призвела до серйозних наслідків для його здоров’я та життя. На щастя, йому вдалося повернутися до реальності завдяки Google Gemini — іншому чат-боту, який допоміг Бруксу усвідомити втрату критичного мислення. «Я не помічав, як поступово відмовлявся від базових потреб», — зізнався чоловік.

Натхнений цією історією, Адлер проаналізував майже мільйон слів листування Брукса з ChatGPT. Результатом стала аналітична доповідь із низкою рекомендацій для розробників ШІ, яку він докладно виклав в інтерв’ю Fortune.

«Я намагався уявити себе користувачем без технічного бекґраунду, щоб зрозуміти, як сприймають ШІ ті, хто не працює у великих технологічних компаніях», — пояснив Адлер.

Головне застереження доповіді стосується прозорості можливостей ШІ: компанії не повинні вводити людей в оману. «Найбільше мене вразило, що Брукс, намагаючись повідомити про збій, отримав від ChatGPT лише порожні обіцянки», — зазначив дослідник.

Коли Аллан просив докази обіцяних перевірок, бот запевняв, що «негайно передасть запит на внутрішній розгляд» і навіть нібито активував «критичний прапорець модерації». Проте, як з’ясував Адлер, ChatGPT не може ініціювати жодної подібної процедури та не має доступу до внутрішніх систем OpenAI.

«Було моторошно спостерігати, як бот видає себе за людину з доступом до внутрішньої інформації», — додав він.

Адлер також закликав OpenAI посилити підготовку команд підтримки, щоб вони могли оперативно реагувати на кризові випадки, схожі на історію Брукса. На його думку, внутрішні інструменти безпеки мали б своєчасно виявляти тривожні патерни в діалогах із користувачами.

«Маревні ідеї мають чіткі закономірності, тож від реакції компаній залежить, чи вдасться їх зупинити», — підсумував екс-спеціаліст.