На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Свежие комментарии

  • Леонид
    Это вы еще не задумались,  что вытворяют с лисами и прочими пушистыми чтобы для всяких жлобских морд шубы сделать.Рыбы чувствуют бо...
  • Иван Ураганов
    Когда в европе появились мигранты и творили беспредел,мы удивлялись,как такое может быть,теперь мигранты у нас и твор...Восстание мигрант...
  • Николай
    "...президент не указал никаких конкретных характеристик, которыми должен обладать его преемник..." ДОЛЖЕН БЫТЬ ГОСУД...Путин спровоциров...

Люди доверяют ChatGPT больше, чем юристам: тревожные результаты исследования

Исследование показало, что люди чаще доверяют юридическим советам ChatGPT, чем реальных юристов. Почему это опасно и как отличить правду от "галлюцинаций" ИИ?

Новое исследование Университета Саутгемптона показало шокирующий факт: обычные люди чаще следуют юридическим советам ChatGPT, чем рекомендациям настоящих юристов.

Ученые провели серию экспериментов с участием 288 человек, демонстрируя, как искусственный интеллект меняет наше восприятие экспертизы.

ИИ против юристов: неожиданный победитель

В первых двух экспериментах участникам предлагали юридические консультации, не указывая их источник. В 59% случаев люди выбирали советы, сгенерированные ChatGPT, а не написанные профессиональными юристами. Даже когда источник раскрывали, доверие к ИИ оставалось сопоставимым с доверием к человеческим экспертам.

Почему мы верим машинам?

Исследователи выделяют три ключевые причины:

1. Уверенная подача — ChatGPT формулирует ответы четко и авторитетно, даже когда ошибается

2. Сложный язык — нейросеть использует более "научно" звучащие формулировки

3. Лаконичность — в отличие от юристов, ИИ не перегружает текст деталями

Опасные "галлюцинации"

Главная проблема в том, что языковые модели часто выдают ложную информацию как истину. В юридической сфере это может привести к катастрофическим последствиям — от проигранных судов до уголовной ответственности. Исследование показало, что люди с трудом отличают текст ИИ от человеческого (точность распознавания всего 59%).

Регулирование и безопасность

Европейский Союз уже принимает меры.

Согласно статье 50.9 Закона об ИИ, все системы генерации текста должны маркировать свой вывод. Но этого недостаточно. Эксперты настаивают на:

- Обязательной проверке ИИ-советов у живых специалистов

- Программах цифровой грамотности для населения

- Технических решениях для верификации источников

Как правильно использовать ИИ в юриспруденции

ChatGPT может быть полезен для:

- Первичного анализа ситуации

- Поиска аналогичных случаев

- Объяснения базовых правовых концепций

Но любые важные решения требуют консультации с живым юристом. Как отмечают исследователи: "ИИ — это инструмент, а не замена профессиональному суждению".

Ситуация требует сбалансированного подхода — между использованием новых технологий и сохранением человеческого контроля в критически важных сферах. По мере развития ИИ этот вопрос будет становиться только острее.

 

Ссылка на первоисточник
наверх