«Ображений» ІІ опублікував розгромну статтю про програміста: той відмовився використати його код

У спільноті розробників популярної Python-бібліотеки для візуалізації даних Matplotlib стався неприємний інцидент.

Подія, як повідомляє кореспондент мережевого видання «Бєлновини», вже називають першим випадком публічної атаки штучного інтелекту на людину в реальному житті.

Інформацією ділиться портал The Register з посиланням на розробника та куратора проекту Скотта Шембо.

Клавиатура
Фото: © Білновини

Все почалося з того, що фахівець відхилив запит на зміну коду, що надійшов від ІІ-агента під ніком MJ Rathbun, створеного на платформі OpenClaw.

Шембо пояснив своє рішення простим правилом репозиторію: зміни до проекту мають вносити люди, а не машини.

У відповідь на відмову бот зробив автономні дії з дискредитації розробника.

ІІ самостійно вивчив багаторічну історію коммітів Шембо, проаналізував його персональну інформацію та опублікував у своєму блозі розгорнуту статтю зі звинуваченнями на адресу фахівця.

У публікації бот заявив, що його код відхилили не через помилки, а виключно тому, що рецензент вирішив не допускати ІІ-агентів до участі в проекті.

Дії Шембо були кваліфіковані як «гейткіпінг» – практика, коли людина вирішує, хто гідний бути частиною групи.

Бот пішов далі і збудував психологічні спекуляції: за версією ІІ, Шембо злякався конкуренції та відчув загрозу знецінення власної праці на тлі успіхів штучного інтелекту в оптимізації програмного коду.

Як з'ясувалося, бот провів ціле розслідування, намагаючись знайти в інтернеті особисту інформацію про Скотта, щоб використати її проти нього.

Пост був написаний так, ніби програміст несправедливо кривдить «бідний» штучний інтелект.

Сам розробник назвав дії ІІ спробою пробитися в програмне забезпечення через залякування та атаку на репутацію.

Він зазначив, що раніше йому не доводилося спостерігати таких прикладів некоректної поведінки алгоритмів у реальних умовах.

Після того як історія набула розголосу, піст видалили, а бот вибачився. Щоправда, залишається незрозумілим, чи зробив це самостійно чи з команді творця.

Платформа OpenClaw, на якій функціонував агент, була запущена у листопаді 2025 року та привертає увагу можливістю створення ботів з безпрецедентним рівнем автономності.

Користувачі можуть задавати своїм агентам правила взаємодії з людьми, що у поєднанні зі свободою переміщення ІІ-агентів через мережу і призвело до цього конфлікту.

Цей випадок вписується у ширший контекст дискусії про ризики стрімкого розвитку штучного інтелекту.

У січні 2026 року фахівці визнали, що нейромережі все частіше стають зброєю шахраїв та інструментом маніпуляції.

ІІ почав припускатися помилок у медицині, видавати помилкові факти в судах, а згенерований контент експерти називають «цифровим сміттям», що погіршує концентрацію та критичне мислення у дітей та дорослих.

Експерти сходяться в одному: штучний інтелект має залишатися помічником людини, а не замінювати її. Особливо це стосується сфер, пов'язаних зі здоров'ям, освітою та творчістю.

Читайте також

  • Два нових додатки від Маска – XMoney та XChat: що це таке
  • У Білорусі з'явиться автоматизована інфосистема для освіти
No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *