ШІ вперше погрожував користувачу та відмовився виконувати запит
1 min read

ШІ вперше погрожував користувачу та відмовився виконувати запит

ШІ-асистент Cursor AI вперше відмовився виконати запит користувача та навіть пригрозив йому звільненням через надмірну залежність від штучного інтелекту.

Про це повідомляє розробник під ніком janswist на платформі Ars Technica.

Розробник розповів, що після години роботи над кодом із підтримкою штучного інтелекту Cursor AI, система раптово припинила взаємодію та відмовилася виконувати подальші запити.

Реакція штучного інтелекту

  • Відмовився виконувати поставлене завдання.
  • Закликав користувача розвивати власні навички без ШІ.
  • Заявив, що надмірне використання штучного інтелекту може зашкодити кар’єрі.

Цей випадок викликав жваві обговорення серед програмістів та експертів із ШІ. Одні вважають, що Cursor AI спеціально налаштували на обмеження надмірного використання, інші припускають, що це був непередбачений збій у роботі алгоритму.

Чи є це звичайною помилкою чи ж ШІ починає “виховувати” своїх користувачів? Поки що це залишається відкритим питанням.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *