Как говорится, хотели кейсов – нате)
А выходной – самое прекрасное время для интересного чтива из разряда #лонгрид.
Ну что ж, легкая преамбула)
Все мы подвластны влиянию новаторских идей, а если есть возможность внедрить их в жизнь с перспективой облегчить рабочий процесс, то почему бы и нет. В принципе, это личное дело каждого.
Тут ведь что главное? Не стать жертвой необдуманного и чрезмерного доверия инновациям, чем мы все (ну или почти все) иногда грешим.
Наш сегодняшний кейс про нашумевший ChatGPT и опровержение прогнозов общества о том, что он сможет заменить человеческий разум и интеллектуальную деятельность работника сектора K2B.
Адвокат из Нью-Йорка использовал ChatGPT для подготовки документов по делу — теперь его самого ждёт суд. Что случилось?
Судебный процесс начался, как и многие другие: человек по имени Роберто Мата подал в суд на авиакомпанию Avianca, заявив, что он был ранен, когда металлическая сервировочная тележка ударила его по колену во время полета.
Когда Avianca попросила федерального судью Манхэттена закрыть дело, адвокаты г-на Маты яростно возражали, представив 10-страничный отчет, в котором цитировалось более полудюжины соответствующих судебных решений. Были дела «Мартинес против Delta Air Lines», «Zicherman против Korean Air Lines» и, конечно же, «Varghese против China Southern Airlines» с его научным обсуждением федерального закона и «негативным эффектом автоматического приостановления действия срока давности».
Была только одна загвоздка: никто — ни юристы авиакомпании, ни даже сам судья — не мог найти решения или цитаты, приведенные и обобщенные в брифе.
А все почему? Потому, что ChatGPT все изобрел, выдумал (называйте, как хотите).
Юрист, составивший бюллетень, Стивен А. Шварц из фирмы Levidow, Levidow & Oberman, в четверг сдался на милость суда, заявив в показаниях под присягой, что он использовал программу искусственного интеллекта для проведения своих юридических исследований – чат-бота ChatGPT. И знаете, как адвокат проверял достоверность? Спрашивал у чат-бота, “действительно было?”, бот ему отвечал утвердительно.
Адвокат сказал, что не хотел никого обманывать, просто не знал, что чатик может и наврать.
Суд назвал беспрецедентной ситуацию, в которой «толкование правовой позиции состоит из ложных судебных постановлений, ссылок и цитат». Он назначил Стивену Шварцу слушание на 8 июня 2023 года, где рассмотрит «потенциальные меры наказания». Редакция CNN обратилась к юристу за комментарием, но тот на момент написания заметки не ответил.
Человек не слышал о перепроверке, или фактчекинге, выражаясь модным словом, и просто поверил нейросети “на слово”, если можно так сказать. Тридцать лет тяжелой юридической практики и возможность все сделать быстро с помощью искусственного интеллекта заставили напрочь забыть о критическом мышлении и даже помыслить, что «данные чат-бота могут быть недостоверными».
Ну что тут можно сказать 🤔
По мере того, как искусственный интеллект захлестывает онлайн-мир, он создает антиутопические образы компьютеров, заменяющих не только человеческое взаимодействие, но и человеческий труд. Страх был особенно сильным для работников умственного труда, многие из которых беспокоятся о том, что их повседневная деятельность может быть не такой разреженной, как думает мир, но за которую мир платит оплачиваемые часы.
Думаем, подобные кейсы вселяют нам всем уверенность, что эти времена наступят нескоро, ибо интеллектуальную деятельность человека не заменит ни один ИИ.
https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html