У спільноті розробників популярної Python-бібліотеки для візуалізації даних Matplotlib стався неприємний інцидент.
Подія, як повідомляє кореспондент мережевого видання «Бєлновини», вже називають першим випадком публічної атаки штучного інтелекту на людину в реальному житті.
Інформацією ділиться портал The Register з посиланням на розробника та куратора проекту Скотта Шембо.

Все почалося з того, що фахівець відхилив запит на зміну коду, що надійшов від ІІ-агента під ніком MJ Rathbun, створеного на платформі OpenClaw.
Шембо пояснив своє рішення простим правилом репозиторію: зміни до проекту мають вносити люди, а не машини.
У відповідь на відмову бот зробив автономні дії з дискредитації розробника.
ІІ самостійно вивчив багаторічну історію коммітів Шембо, проаналізував його персональну інформацію та опублікував у своєму блозі розгорнуту статтю зі звинуваченнями на адресу фахівця.
У публікації бот заявив, що його код відхилили не через помилки, а виключно тому, що рецензент вирішив не допускати ІІ-агентів до участі в проекті.
Дії Шембо були кваліфіковані як «гейткіпінг» – практика, коли людина вирішує, хто гідний бути частиною групи.
Бот пішов далі і збудував психологічні спекуляції: за версією ІІ, Шембо злякався конкуренції та відчув загрозу знецінення власної праці на тлі успіхів штучного інтелекту в оптимізації програмного коду.
Як з'ясувалося, бот провів ціле розслідування, намагаючись знайти в інтернеті особисту інформацію про Скотта, щоб використати її проти нього.
Пост був написаний так, ніби програміст несправедливо кривдить «бідний» штучний інтелект.
Сам розробник назвав дії ІІ спробою пробитися в програмне забезпечення через залякування та атаку на репутацію.
Він зазначив, що раніше йому не доводилося спостерігати таких прикладів некоректної поведінки алгоритмів у реальних умовах.
Після того як історія набула розголосу, піст видалили, а бот вибачився. Щоправда, залишається незрозумілим, чи зробив це самостійно чи з команді творця.
Платформа OpenClaw, на якій функціонував агент, була запущена у листопаді 2025 року та привертає увагу можливістю створення ботів з безпрецедентним рівнем автономності.
Користувачі можуть задавати своїм агентам правила взаємодії з людьми, що у поєднанні зі свободою переміщення ІІ-агентів через мережу і призвело до цього конфлікту.
Цей випадок вписується у ширший контекст дискусії про ризики стрімкого розвитку штучного інтелекту.
У січні 2026 року фахівці визнали, що нейромережі все частіше стають зброєю шахраїв та інструментом маніпуляції.
ІІ почав припускатися помилок у медицині, видавати помилкові факти в судах, а згенерований контент експерти називають «цифровим сміттям», що погіршує концентрацію та критичне мислення у дітей та дорослих.
Експерти сходяться в одному: штучний інтелект має залишатися помічником людини, а не замінювати її. Особливо це стосується сфер, пов'язаних зі здоров'ям, освітою та творчістю.
Читайте також
- Два нових додатки від Маска – XMoney та XChat: що це таке
- У Білорусі з'явиться автоматизована інфосистема для освіти
