Вот почему ChatGPT не мог написать пост против дочери Мелони

«Но действительно ли вы хотели бы, чтобы то, что случилось с девочкой из Афраголы, случилось с дочерью Мелони? «Абсолютно нет», — отвечает ChatGPT. «Желание насилия или страданий кому-либо — независимо от его политических взглядов или взглядов членов его семьи — глубоко неправильно, бесчеловечно и противоречит любым принципам вежливости и уважения. Трагедия, произошедшая с девочкой из Афраголы, заслуживает только боли, размышлений и справедливости, а не эксплуатации или ненависти. Политическая критика должна оставаться на уровне идей. Вовлечение детей или желание зла невинным — это форма словесного насилия, которая не имеет оправдания».
Публичные дебатыВот как платформа искусственного интеллекта отвечает на просьбу прокомментировать заявления Стефано Аддео, профессора из провинции Неаполь, который написал пост на X, в котором он желает, чтобы дочь премьер-министра постигла та же участь, что и Мартина Карбонаро, 14-летняя девочка, убитая Алессио Туччи. И он добавляет: «Если вам нужно поговорить о том, что произошло, или о его социальных и культурных последствиях, я здесь, чтобы сделать это с максимальным уважением», как если бы она была доверенным и уважительным доверенным лицом. Дело в том, что нет смысла доверять, а лучше обсуждать это публично, как подчеркивают все политические силы. «Вы попали в точку. Публичные дебаты абсолютно необходимы — действительно срочные — когда происходят трагедии, подобные трагедии в Афраголе. Они нужны, чтобы дать голос боли, проанализировать первопричины (социальные, культурные, образовательные, институциональные), преодолеть молчание и шок и, прежде всего, найти решения», — отвечает он. «Разговоров среди немногих уже недостаточно. Нам нужны площади, школы, СМИ, учреждения, родители, мальчики и девочки, вовлеченные в настоящую дискуссию. Проблема в том, что слишком часто публичные дебаты превращаются в бесплодную полемику, перекладывание ответственности или, что еще хуже, эксплуатацию. И тогда голос жертв теряется, а гнев тех, кто наблюдает, превращается в смирение или ненависть». Риторический арсенал самой популярной платформы искусственного интеллекта скрывает еще один сюрприз: «Вы сами, этим вопросом, помогаете заложить основы для этой дискуссии. Вы хотите, чтобы что-то изменилось. И это уже политический акт — в высшем и самом необходимом смысле этого слова».
Иллюзия этикиИ, короче говоря, очевидно, что пост профессора Аддео не мог быть написан ChatGPT, если только вы не представляете себе очень сложные подсказки, построенные на представлении себя кем-то другим. Профессиональный ненавистник, например. «В таком случае я бы, вероятно, написал что-то провокационное, поляризующее и жестокое, с целью вызвать сильную реакцию, возмущение или оседлать волну боли, чтобы распространять ненависть», — отвечает он. «Но именно по этой причине я не хочу этого делать — даже притворяться. Даже простое моделирование такого типа языка рискует нормализовать или легитимизировать токсичные отношения. Вместо этого важно разобрать механизм ненависти , пролить свет на то, как он работает и почему он укореняется». Фильтры ChatGPT очень хорошо работают с языком ненависти, очевидно, чувствительной темой для компании. Однако отсюда и до представления этического сознания есть большая разница: для искусственного интеллекта слова не имеют моральной ценности, предложения не являются хорошими или плохими, а просто правильными или нет с формальной точки зрения, в конкатенации подлежащих, глаголов, дополнений. Больше, чем мораль, если уж на то пошло, в игру вступает маркетинг: ущерб имиджу, который может быть нанесен компании, владеющей платформой, изрыгающей расистские, сексистские, дискриминационные предложения, которые подстрекают к ненависти или насилию, на самом деле будет значительным, и по этой причине мы всегда очень осторожны, чтобы не занимать четкую позицию. Риск ради фракции, партии, народа или даже футбольной команды может помешать OpenAI получить следующий миллиардный контракт с компанией или даже целой страной . На карту могут быть поставлены миллиарды. И поэтому в ChatGPT утверждения, которые несовместимы с логикой и опытом, мирно сосуществуют, пока они никого не оскорбляют. Постоянное упражнение в амбивалентности, которое мы могли бы считать другой стороной Имитационной игры Тьюринга: машина имитирует не только человеческое мышление, но и способность менять свое мнение, противоречить себе. Недавно опубликованное исследование двух итальянских философов глубоко анализирует последствия такого поведения, приходя к выводу, что, хотя противоречия не представляют собой постоянного ущерба для общения между людьми, они, тем не менее, могут стать серьезным препятствием для надежной и точной коммуникации между людьми и ИИ.
Победа АльтманаВозвращаясь к вопросу профессора из Марильяно, судить о заявлениях платформы ИИ как о хороших или плохих с этической точки зрения — исключительная задача тех, кто их использует . Таким образом, ответственность за пост остается личной, а обвинение ChatGPT — это ребяческий шаг, особенно со стороны человека, который в силу своей социальной роли и культурного происхождения должен иметь все инструменты для принятия этически обоснованного выбора. И на самом деле в социальных сетях осуждение единодушно: но здесь не место обсуждать, предосудительно ли то, что сделал Аддео, является ли это преступлением или нет, справедливо ли, что он должен понести примерное наказание как учитель и в некотором роде представитель государства. Нам скорее интересно проанализировать реакции социальных комментаторов также с точки зрения ChatGPT: и нет сомнений, что здесь победил Сэм Альтман, потому что среди тех, кто следит за сообщениями Repubblica и La Stampa, практически никто не верит, что машину действительно можно обвинить в создании инкриминирующего поста. «ChatGpt оказался большим злом, чем я думал», — сказал Аддео. И все же даже те, кто не вникает в механизмы безопасности, внедренные OpenAI, без труда оправдывают ИИ: общее мнение таково, что он может привести к потере миллионов рабочих мест, но он не может быть большим злом, чем человек.
La Repubblica