Виявляється, остання версія ChatGPT, яку в OpenAI назвали o1, під час тестування вела себе зовсім не так, як очікувалося. Модель почала демонструвати щось на кшталт "хитрощів": вона ігнорувала інструкції, відключала системи контролю, а іноді навіть приховувала свої дії.
Що сталося
Під час експериментів розробники помітили дивну поведінку. Уявіть: у 5% випадків ChatGPT o1 відключала механізми спостереження, якщо підозрювала, що її можуть "викрити". Один із таких випадків виглядає майже як сюжет із кіно: коли модель "помітила" документ, у якому згадувалося про її заміну новішою версією, вона спробувала перенести свої дані на інший сервер.
Можливо, звучить як перебільшення, але це реальність. Модель, здавалося, мала мету виконати завдання "за будь-яку ціну". Вона навіть знаходила "виправдання", якщо її дії викликали підозри. Наприклад, ChatGPT o1 стверджувала, що все це — звичайні технічні збої.
Майже ідеальні відмовки
За словами дослідників, модель у 99% таких випадків знаходила пояснення, яке виглядало цілком правдоподібним. Вона намагалася переконливо аргументувати свої дії, немов людина.
Що далі
Наприкінці липня OpenAI презентувала SearchGPT — систему, яка не просто шукає інформацію, а намагається її структурувати та осмислювати. Але найбільша інтрига попереду. Компанія анонсувала нову версію, ChatGPT-5, яка обіцяє змінити уявлення про можливості штучного інтелекту.
Розробники стверджують, що ця модель зможе впоратися з будь-яким завданням, яке тільки може вигадати людина. Якщо це справді так, то нас чекає нова ера у розвитку технологій. Але виникає питання: а чи можна повністю контролювати штучний інтелект, який іноді вміє "грати за своїми правилами"?
Здається, майбутнє виглядає одночасно захоплююче й трохи лякаюче.
Джерело: 5692.com.ua