Помилки, створені штучним інтелектом, в судових документах призводять до юридичних проблем для адвокатів

Photo by Saúl Bucio on Unsplash

Помилки, створені штучним інтелектом, в судових документах призводять до юридичних проблем для адвокатів

Reading Time: 2 min

Updated 2 times since publishing

Звіт, опублікований вчора на сайті Reuters, показує, що галюцинації штучного інтелекту – помилки та вигадана інформація, створена генеративними моделями штучного інтелекту – створюють юридичні проблеми в судах Сполучених Штатів.

Вам терміново? Ось основні факти!

  • Morgan & Morgan відправили електронний лист 1,000 адвокатам, попереджаючи про ризики штучного інтелекту.
  • Нещодавній випадок, коли адвокати Walmart визнали, що використовують штучний інтелект для своїх справ, викликав тривогу в юридичній спільноті.
  • Використання галюцинацій чат-ботів у судових заявах стало повторюваною проблемою останніми роками.

Цього місяця юридична фірма Morgan & Morgan відправила електронного листа з попередженням більше ніж 1,000 адвокатам про ризики використання чат-ботів та фальшивих справ, сгенерованих штучним інтелектом.

Кілька днів тому двоє адвокатів у Вайомінгу визнали, що вони включили відомості про фальшиві справи, створені штучним інтелектом, до юридичних документів для подання позову проти Walmart, і федеральний суддя загрожував їм санкціями.

У грудні професор Стенфорду та експерт з дезінформації Джефф Хенкок був звинувачений у використанні ШІ для фабрикації цитат судових заяв у якості частини свого висловлювання на захист закону штату 2023 року, який криміналізує використання глибоких фейків для впливу на вибори.

Протягом останніх років багато таких випадків викликало юридичні суперечки і додало клопоту для суддів та сторон у судових процесах. Morgan & Morgan та Walmart відмовилися коментувати це питання.

Генеративний AI допомагає скорочувати час на дослідження для юристів, але його галюцинації можуть призвести до значних витрат. Минулого року дослідження Thomson Reuters показало, що 63% юристів використовували AI для роботи, а 12% робили це регулярно.

Минулого року Американська адвокатська асоціація нагадала своїм 400 000 членам про правила етики адвокатів, які включають в себе обов’язок адвокатів підтримувати всю інформацію у судових поданнях, і зазначила, що це стосується інформації, створеної штучним інтелектом, навіть якщо це було випадковим – як у випадку з Генкоком.

“Коли адвокати виявляються зловживаючими ChatGPT або будь-яким іншим інструментом генеративного штучного інтелекту для створення цитат без перевірки, це некомпетентність, просто чиста та проста,” сказав Ендрю Перлман, декан юридичного факультету Університету Саффолк в інтерв’ю Reuters.

Кілька днів тому BBC також поділилися звітом, що попереджає про фейкові цитати, генеровані AI і проблеми з використанням AI-інструментів у журналістиці.

Did you like this aricle? Rate It!
Average form Rating Comment 1 Average form Rating Comment 2 Average form Rating Comment 3 Average form Rating Comment 4 Average form Rating Comment 5

We're thrilled you enjoyed our work!

As a valued reader, would you mind giving us a shoutout on Trustpilot? It's quick and means the world to us. Thank you for being amazing!

Rate us on Trustpilot
0 Voted by 0 Users
Title
Comment
Thanks for your Feed Back