Искусственный интеллект «галлюцинирует», передавая несуществующие данные, как будто они существуют на самом деле

Искусственный интеллект , который может выполнять некоторые функции, характерные для человеческого интеллекта, такие как обучение, решение проблем и принятие решений, может «галлюцинировать», как человек, хотя он и не обладает способностью к сознанию.
Тот факт, что искусственный интеллект, который всегда считался передающим «беспристрастную и точную» информацию, выдает нереалистичные и ошибочные данные, «как будто они существуют на самом деле», в очередной раз заставляет задуматься о его надежности и прозрачности.
Хотя чат-боты на базе искусственного интеллекта обеспечивают быстрые ответы, соответствующие контексту введенной команды, создание впечатления, что искусственный интеллект «непогрешим», «галлюцинирует» подобно человеку, может привести к серьезным последствиям.
По мнению экспертов, причина, по которой искусственный интеллект выдает ложную или нереалистичную информацию, стремясь при этом выдавать соответствующие ответы на введенные команды, заключается в том, что он стремится принести пользу пользователю всеми способами.
Профессор Эхсан Хок с факультета компьютерных наук Рочестерского университета рассказал изданию AA о концепции «галлюцинаций в искусственном интеллекте», а профессор Эмили Бендер с факультета лингвистики Вашингтонского университета рассказала изданию AA о надежности чат-ботов, поддерживаемых искусственным интеллектом.
Профессор Хок отметил, что ИИ по своей сути склонен отражать намерения пользователя, добавив: «Когда их просят «исправить» ошибку, многие модели галлюцинируют, чтобы казаться полезными».
Хок заявил, что искусственный интеллект, призванный давать адекватные ответы на введенные команды, занимается своего рода «лестью», поскольку его цель — приносить пользу пользователям всеми возможными способами.
Отметив, что модели искусственного интеллекта создают текст, предсказывая потенциальные шаблоны слов, а не проверяя факты, Хок отметил, что если данные неполны или неоднозначны, искусственный интеллект может создать плавный, но неверный текст.
Хок заявил, что галлюцинации не возникают намеренно, но некоторые ценностные суждения могут быть «сознательно закодированы в системе» в зависимости от страны, в которой они возникают, и что современные технологии пока не способны полностью решить проблему галлюцинаций.
Эксперты сравнивают представление искусственным интеллектом несуществующей информации другой стороне «как будто это правда» с нейропсихиатрическим расстройством «конфабуляция».
Конфабуляция, то есть непроизвольное и беглое повествование о нереальном или воображаемом событии или воспоминании «как в сказке», может наблюдаться в случаях, когда чат-боты, стремясь адекватно реагировать на команды, выдают ложную или нереальную информацию на беглом языке.
Примечательно, что у пациентов, страдающих конфабуляциями, хотя беглый язык, используемый для передачи вымышленных событий и воспоминаний, может поначалу казаться собеседнику «реальным», описываемые ситуации на самом деле не существуют или состоят из искаженной информации.
Эксперты отмечают, что данная ситуация не является преднамеренной, и сравнивают «галлюцинации» искусственного интеллекта с этой болезнью.
Рассматривая возможность использования искусственного интеллекта в официальных документах, таких как судебные дела или медицинские карты, отмечается, что такая ситуация может иметь серьезные последствия.
Говоря о надежности чат-ботов на базе искусственного интеллекта, профессор кафедры лингвистики Вашингтонского университета Бендер сказал, что маркетинговые стратегии играют определенную роль в формировании доверия к искусственному интеллекту, и указал на концепцию «предвзятости автоматизации».
Бендер сказал: «Ничто в проектах искусственного интеллекта не решает проблему галлюцинаций», и подчеркнул, что «не следует полностью доверять этим системам».
Этот термин, описывающий «склонность людей чрезмерно доверять» информации, поступающей от автоматизированной системы, независимо от уровня ее ошибок, совпадает с представлением о том, что результаты, выдаваемые чат-ботами на базе искусственного интеллекта, «не содержат ошибок».
(AA) Этот контент был опубликован Мустафой Фиданом
mynet