Поліція має пояснити, чому, згідно зі звітом, офіцер перетворився на жабу

Натисніть, щоб побачити більше

Люди використовували ChatGPT майже для всього з моменту його випуску в 2019 році, і тепер правоохоронні органи сприйняли його з розумінням. Однак не все пройшло гладко, і поліцейський департамент у місті Хебер-Сіті, штат Юта, був змушений пояснити, чому у звіті йдеться про те, що офіцер якимось чином перетворився на жабу. (Фото: Dan Kitwood/Getty Images)
Цей казковий фінал, схоже, виник через не пов'язані між собою фонові розмови після того, як департамент почав тестувати два програмні засоби штучного інтелекту – Draft One та Code Four. Code Four був створений Джорджем Ченгом та Діланом Нгуєном, обом по 19 років, які кинули навчання в Массачусетському технологічному інституті. Програмне забезпечення створює поліцейські звіти на основі записів з нагрудних камер з метою зменшення паперової роботи та дозволити офіцерам більше часу проводити в польових умовах. (Фото: Matteo Della Torre/NurPhoto via Getty Images)
Сержант поліції Рік Кіл розповів FOX 13 News: «Програмне забезпечення для нагрудної камери та програмне забезпечення для написання звітів на основі штучного інтелекту зафіксували фільм, який відтворювався на задньому плані, і це виявився фільм «Принцеса і жаба», маючи на увазі музичну комедію Disney 2009 року. «Саме тоді ми зрозуміли важливість виправлення цих звітів, згенерованих штучним інтелектом». (Фото: Getty Images)
Але навіть проста імітація зупинки транспорту, яка мала на меті продемонструвати можливості інструменту, не пройшла за планом і вимагала численних виправлень, повідомляє Fox 13. Штучний інтелект створив звіт із часовими позначками імітації зупинки транспорту, працює як англійською, так і іспанською мовами, а також може відстежувати тон і настрої. Але, незважаючи на недоліки, Кіл розповів виданню, що інструмент зараз економить йому «шість-вісім годин на тиждень», додавши: «Я не дуже добре розбираюся в технологіях, тому він дуже зручний у використанні». (Фото: LIONEL BONAVENTURE/AFP via Getty Images)
Перший варіант був вперше анонсований минулого року компанією поліцейських технологій Axon – тією ж фірмою, яка розробила Taser, популярну електрошокову зброю. Програмне забезпечення використовує великі мовні моделі OpenAI GPT для створення цілих поліцейських звітів з аудіозаписів нагрудних камер. Але експерти попереджають, що в цих важливих документах можуть бути приховані невірні деталі. Минулого року в інтерв'ю AP професор права Американського університету Ендрю Фергюсон сказав: «Я стурбований тим, що автоматизація та простота технології змусять поліцейських бути менш обережними у своїх записах». (Фото: Getty)
Експерти стурбовані тим, що помилки можуть прослизнути в офіційні записи задовго до того, як їх хтось помітить. Перетворення офіцера на жабу легко помітити, оскільки це абсурдно, але ризик менш смішний, коли штучний інтелект неправильно чує назву вулиці, неправильно розуміє хаотичну сцену або неправильно зазначає деталь, яка пізніше може бути використана в суді. Критики також стверджують, що цей інструмент може бути використаний для запровадження можливості заперечення та зменшення відповідальності офіцерів у випадку, якщо помилки пропадуть. Поліцейське управління міста Хебер ще не вирішило, чи продовжуватиме воно використовувати Draft One. (Фото: Getty)
Чи є використання ШІ для роботи поліції занадто ризикованим?
Оновлення новин

Назад Далі Галерея Назад Початок Далі

Більше трендів

Оновлення новин

Будьте в курсі заголовків завдяки щоденним оновленням електронною поштою.

Електронна пошта Я погоджуюся отримувати розсилки від Metro Зареєструватися

Цей сайт захищено reCAPTCHA, і до нього застосовуються Політика конфіденційності та Умови надання послуг Google. Ваша інформація буде використана відповідно до нашої Політики конфіденційності.

Sourse: metro.co.uk

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *