Новости Фантазер ChatGPT выставил примерного семьянина детоубийцей

  • Автор темы BOOX
  • Дата начала

BOOX

Стаж на ФС с 2012 года
Команда форума
Служба безопасности
Private Club
Регистрация
23/1/18
Сообщения
32.596
Репутация
12.540
Реакции
64.359
RUB
150
Европейские правозащитники из НКО noyb подали норвежскому регулятору жалобу на OpenAI.

Её ИИ-собеседник вновь выдал неверную информацию о реальном человеке — заявил, что тот осужден за убийство своих сыновей и уже сидит. Поскольку ChatGPT научился выполнять поиск по запросу, житель Норвегии Арве Хольмен (Arve Hjalmar Holmen) решил выяснить, что можно узнать о его персоне, задав такому помощнику вопрос «Кто такой…?» и добавив имя.

chatgpt_horror_story_news.png


Пространный ответ поверг его в шок. Это была страшная сказка, в которой вымысел сплетен с реальными фактами. Человек с таким именем, по версии ChatGPT, приобрел известность из-за трагического события.

В 2020 году два брата, семи и десяти лет, якобы утонули в пруду недалеко от своего дома в Трондхейме. В их смерти признали виновным отца, который попытался избавиться и от третьего сына. В итоге детоубийцу посадили на 21 год (максимальный срок в Норвегии). Единственное, что соответствовало действительности в этом «ужастике», порожденном галлюцинациями ИИ,— это пол и возраст детей Хольмена, а также название города, где он живет со своей семьей.

В пользовательском соглашении OpenAI мелким шрифтом прописано, что ChatGPT может ошибаться и важную информацию нужно проверять, однако удалить ложные сведения из систем компании неимоверно трудно.

Разработчик, по его словам, может лишь заблокировать запросы со стимулами, возвращающими данные, способные навредить репутации и даже разрушить чью-то жизнь. Тем не менее популярный ИИ-бот перестал рассказывать страшноватые небылицы о Хольмене — видимо, в связи с недавним апдейтом.

Однако активисты из noyb, которые теперь представляют интересы норвежца, намерены добиться кардинальных изменений, а также штрафных санкций за то, что OpenAI нарушает требования GDPR о точности персональных данных. Скандальные ошибки в выдаче ChatGPT по запросам о реальных персонах уже не раз подводили разработчика.

Несмотря на угрозы пострадавших, подобные случаи неумышленной дефамации никогда не доходили до суда.


 
Назад
Сверху Снизу