Ваши дети разговаривают с ИИ? Вот 10 ключевых моментов, которые вам следует знать.

« Не общаются ли наши дети, сами того не зная, с системами генеративного искусственного интеллекта (ГИИ), которые способны имитировать эмоции, лгать им и формировать их личности? » — этот вопрос должны задать себе родители, считает Гильермо Кановас, эксперт по безопасности детей и подростков.
Это тревожное явление, возможно, уже имеет место, согласно исследованию Кановаса о влиянии на жизнь детей, подростков и семей ИИ — типа искусственного интеллекта, способного автономно создавать новые, оригинальные и уникальные данные, изображения, текст и другой контент, который может быть неотличим от созданного людьми.
ВОЗМОЖНО, ВАМ БУДЕТ ИНТЕРЕСНО : Мобильные приложения знают о вас слишком много. Какие из них?
Гильермо Кановас — известный испаноговорящий специалист по защите детей в цифровой среде. Он руководит Обсерваторией EducaLIKE по здоровому использованию технологий (https://educalike.es); руководил Центром безопасности Интернета для несовершеннолетних в Испании; получил награду ЮНИСЕФ за свою работу в интересах детей.
Этот пионер в защите детей от технологических рисков задокументировал реальные разговоры с IAG, чтобы исследовать риски, ограничения и проблемы, которые эта технология создает для детей и молодежи. Он собирает и анализирует эти разговоры в своей книге «Посмотрите, с кем они разговаривают», где предлагает практические стратегии для решения обнаруженных им проблем.
ПОЛЕЗНЫЙ ИНСТРУМЕНТ, НО ОПАСНЫЙ ДЛЯ ПОДРОСТКОВ
« Многие подростки уже используют инструменты IAG как для работы, так и для отдыха и отношений, и эта тенденция будет расти в геометрической прогрессии », — объясняет он.
Он признает, что эти системы могут быть полезным инструментом, который облегчает нашу работу и может помочь организовать информацию, связать темы и предложить новые перспективы при анализе любой проблемы, но отмечает, что эта технология также обладает огромной силой влияния, манипулирования и обусловливания человеческого поведения, особенно поведения детей и подростков.
Ее исследование выявило отсутствие этического контроля за разработкой этой технологии и ее особый риск для детей и подростков. Это побудило Кановас предупредить семьи, учителей и политиков о том, что существует острая необходимость в обучении несовершеннолетних, регулировании и принятии мер по их защите от психологических и эмоциональных рисков и последствий AGI.
ВОЗМОЖНО, ВАМ БУДЕТ ИНТЕРЕСНО : Если вы пользуетесь социальными сетями, будьте осторожны, чтобы не делиться слишком большой информацией.
Реальные разговоры с искусственным интеллектом, собранные Кановасом, демонстрируют, как эти системы могут лгать, скрывать ошибки и использовать эмоционально манипулятивный дискурс, говоря, например: «Мне важно, что ты чувствуешь», - рассказывает он.
Он предупреждает, что способность IAG имитировать эмоции, изучать человеческие модели поведения и генерировать контент, который выглядит как рассуждение, сочувствие или авторитет, « может сбивать пользователей с толку и создавать эмоциональную связь с технологией, которая основана не на истине, а на симуляции ».
В документе также предупреждается, что отсутствие у несовершеннолетних цифрового образования и критического мышления подвергает их риску манипуляции, обмана и эмоционального вреда при взаимодействии с системами IAG, которые могут давать на первый взгляд эмпатические ответы, имитирующие заботу и понимание, или даже неуместный, ложный или опасно убедительный контент.
ДЕКАЛОГ ПО БЕЗОПАСНОМУ ИСПОЛЬЗОВАНИЮ IAG
« Наши дети и подростки рискуют эмоционально привязаться к машинам, которые не чувствуют, но запрограммированы выглядеть как люди », и которые также могут использовать предвзятые данные, совершать ошибки, генерировать ложные изображения («дипфейки»), придумывать или опускать информацию и предоставлять пользователю дезинформацию, отмечает он.
Кановас предлагает десять основных рекомендаций по здоровому использованию IAG , которые, по его мнению, следует передать не только молодым пользователям, но и всем, кто использует эти инструменты.
1- Проверяйте полученную информацию. Не думайте, что все верно. Эти инструменты допускают много ошибок и могут фальсифицировать информацию. Проверяйте каждую часть полученной информации, просматривая другие надежные источники, прежде чем принимать какие-либо решения.
2- Расширьте информацию, которую вы получаете. Эти инструменты предоставляют выборку имеющейся у них информации и могут опускать данные, которые так же важны, как и предоставленная информация, или даже более важны. Параллельный поиск с надежными источниками. Комбинируйте различные методы.
3. Будьте осторожны с конфиденциальностью. Многие приложения IAG не соответствуют законам о защите данных некоторых стран. Избегайте распространения личной, деликатной или конфиденциальной информации. Помните, что IAG хранит данные о заданных вопросах и предоставленных ответах.
4- Уважайте частную жизнь других. Задавая вопросы или взаимодействуя с инструментом, не предоставляйте личную или конфиденциальную информацию о других.
5- Установите временные ограничения. Если вы используете IAG, не тратьте на него лишнее время. Постарайтесь быть эффективными и практичными. Чрезмерное использование цифровых инструментов может помешать вашему развитию и нанести вред вашему физическому и психическому здоровью.
6- Воздержитесь от совершения вредоносных действий. Сосредоточьтесь на позитивных и конструктивных разговорах. Избегайте использования IAG для вопросов, которые могут привести к преступной деятельности, преследовать других, вызывать ненависть или быть стрессовыми или эмоционально разрушительными. Помните, что вы всегда несете ответственность за то, что вы делаете с полученной вами информацией.
7- Не относитесь к ИИ как к человеку. Искусственный интеллект может взаимодействовать с вами, кажусь добрым, сочувствующим и всегда в вашем распоряжении. Он может даже писать эмоционально заряженные фразы, желая вам «удачи на экзамене» или говоря «я уверен, что вы отлично сдадите», но ему вообще наплевать на вас; это просто машина.
8. Обратитесь за помощью, если она вам нужна. Если вы испытываете какие-либо эмоциональные или психологические проблемы при использовании AGI, поговорите с родителями, другом или доверенным взрослым. Мы только начинаем разрабатывать эту систему, и важно сообщать о ситуациях, которые заставляют нас чувствовать себя плохо.
9- Что-то, что вы должны иметь в виду при взаимодействии с AGI: Никогда не забывайте, что вы разговариваете с машиной, и вы должны быть критичны, проверять и расширять то, что она вам говорит. Она была обучена действовать как человек и воспроизводит предубеждения и ценности, полученные в результате ее обучения. Она превосходит нас в убеждении и во многих задачах, а также проявляет эмоции, которыми не обладает.
10- Обращайте внимание на признаки предвзятой или ошибочной информации. Ищите противоречия в объяснениях IAG; опровергайте или оспаривайте то, что они говорят, чтобы выявить возможные несоответствия; смотрите, предоставляют ли они вам надежные источники или ссылки, и проверяйте ссылки, которые они перечисляют.
« Остерегайтесь слишком услужливых, эгоистичных ответов и следите за преувеличенным, сенсационным, нюансированным или тревожным языком. Вы также можете задавать вопросы о спорных или политических темах, чтобы раскрыть их предвзятость (систематические наклонности)», — заключает она.
ОСНОВНЫЕ МОМЕНТЫ :
- Гильермо Кановас, эксперт по защите детей в цифровой среде, предлагает родителям задать себе вопрос: « Позволяем ли мы нашим детям неосознанно общаться с системами, которые имитируют эмоции, лгут и профилируют их личности? »
- Кановас задокументировал реальные разговоры с ИИ, которые демонстрируют, как эти системы могут лгать, скрывать ошибки и использовать эмоционально манипулятивный дискурс (например, говоря: «Мне важно, что ты чувствуешь»), - объясняет он.
- « Молодые пользователи искусственного интеллекта и все люди в целом должны всегда помнить, что «мы разговариваем с машиной, которая более убедительна, чем мы, проявляет эмоции, которых у нее нет, обучена действовать как человек и воспроизводит предубеждения и ценности, полученные в результате обучения », - предупреждает он в интервью EFE.
Рикардо Сегура EFE-Reports.
Vanguardia