AI-скандал в Австралії: Адвокат вибачився за фейкові цитати у справі про вбивство

AI-скандал в Австралии: Адвокат извинился за фейковые цитаты в деле об убийстве

Декількома словами

Австралійський адвокат вибачився за подання суду фальшивих цитат, згенерованих ШІ, що призвело до затримки судового розгляду.


МЕЛЬБУРН, Австралія (AP) — Відомий австралійський адвокат вибачився перед суддею за подання матеріалів у справі про вбивство, які містили згенеровані штучним інтелектом (ШІ) фальшиві цитати та неіснуючі судові рішення.

Цей скандал у Верховному суді штату Вікторія став черговим у низці подібних подій по всьому світу. Адвокат Ріші Натвані, який має звання королівського адвоката, взяв на себе «повну відповідальність» за подання невірної інформації в матеріалах у справі підлітка, обвинуваченого у вбивстві, згідно з судовими документами, з якими ознайомилось The Associated Press у п'ятницю.

«Ми глибоко шкодуємо і відчуваємо збентеження через те, що сталося», — заявив Натвані судді Джеймсу Елліотту в середу від імені команди захисту. Це призвело до 24-годинної затримки у розгляді справи, яку Елліотт сподівався завершити в середу. У четвер Елліотт виніс рішення, що підзахисний Натвані, особа якого не може бути розкрита через його неповноліття, не винен у вбивстві через психічний розлад.

«М'яко кажучи, спосіб, яким розгорталися ці події, є незадовільним», — заявив Елліотт адвокатам у четвер. «Здатність суду покладатися на точність поданих адвокатами матеріалів є основоположною для належного відправлення правосуддя», — додав Елліотт.

Фальшиві матеріали включали вигадані цитати з промови в законодавчих зборах штату та неіснуючі посилання на судові рішення, нібито з Верховного суду. Помилки були виявлені помічниками Елліотта, які не змогли знайти ці справи та попросили адвокатів захисту надати копії. Адвокати визнали, що цитати «не існують» і що подані матеріали містять «вигадані цитати», йдеться в судових документах.

Адвокати пояснили, що вони перевірили початкові цитати на точність і помилково припустили, що решта будуть такими ж. Матеріали також були надіслані прокурору Даніелю Порседду, який не перевірив їхню точність. Суддя зазначив, що Верховний суд випустив керівництво минулого року про те, як адвокати повинні використовувати ШІ. «Використання штучного інтелекту є неприпустимим, якщо результати його використання не перевіряються незалежно та ретельно», — заявив Елліотт.

У судових документах не вказано генеративну систему штучного інтелекту, використану адвокатами. У аналогічному випадку в США у 2023 році федеральний суддя виніс попередження двом адвокатам та юридичній фірмі після того, як їх звинуватили у наданні вигаданих юридичних досліджень у позові про травму в авіації. Суддя П. Кевін Кастель заявив, що вони діяли недобросовісно. Однак він взяв до уваги їхні вибачення та вжиті ними заходи, пояснивши, чому більш суворі санкції не були необхідні, щоб гарантувати, що вони або інші більше не дозволять інструментам штучного інтелекту змусити їх створювати фальшиву юридичну історію у своїх аргументах.

Пізніше того ж року більше вигаданих судових рішень, винайдених ШІ, були процитовані в юридичних документах, поданих адвокатами Майкла Коена, колишнього особистого адвоката президента США Дональда Трампа. Коен взяв провину на себе, заявивши, що не усвідомлював, що інструмент Google, який він використовував для юридичних досліджень, також здатний до так званих галюцинацій ШІ.

Суддя Високого суду Великобританії в червні попередив, що надання неправдивих матеріалів, нібито вони є справжніми, може розглядатися як неповага до суду або, в «найбільш кричущих випадках», як перешкоджання здійсненню правосуддя, що тягне за собою максимальне покарання у вигляді довічного ув'язнення.

Про автора

Марія - журналістка, що спеціалізується на культурних подіях та мистецтві США. Її статті відзначаються вишуканим стилем, глибоким розумінням художніх процесів та вмінням зацікавити читачів різного віку. Вона часто бере інтерв'ю у відомих американських митців, режисерів та акторів, розкриваючи їх творчі задуми та особисті історії.