Выберите язык

Russian

Down Icon

Выберите страну

Spain

Down Icon

Ваши дети разговаривают с ИИ? Вот 10 ключевых моментов, которые вам следует знать.

Ваши дети разговаривают с ИИ? Вот 10 ключевых моментов, которые вам следует знать.

« Не общаются ли наши дети, сами того не зная, с системами генеративного искусственного интеллекта (ГИИ), которые способны имитировать эмоции, лгать им и формировать их личности? » — этот вопрос должны задать себе родители, считает Гильермо Кановас, эксперт по безопасности детей и подростков.

Это тревожное явление, возможно, уже имеет место, согласно исследованию Кановаса о влиянии на жизнь детей, подростков и семей ИИ — типа искусственного интеллекта, способного автономно создавать новые, оригинальные и уникальные данные, изображения, текст и другой контент, который может быть неотличим от созданного людьми.

ВОЗМОЖНО, ВАМ БУДЕТ ИНТЕРЕСНО : Мобильные приложения знают о вас слишком много. Какие из них?

Гильермо Кановас — известный испаноговорящий специалист по защите детей в цифровой среде. Он руководит Обсерваторией EducaLIKE по здоровому использованию технологий (https://educalike.es); руководил Центром безопасности Интернета для несовершеннолетних в Испании; получил награду ЮНИСЕФ за свою работу в интересах детей.

Этот пионер в защите детей от технологических рисков задокументировал реальные разговоры с IAG, чтобы исследовать риски, ограничения и проблемы, которые эта технология создает для детей и молодежи. Он собирает и анализирует эти разговоры в своей книге «Посмотрите, с кем они разговаривают», где предлагает практические стратегии для решения обнаруженных им проблем.

ПОЛЕЗНЫЙ ИНСТРУМЕНТ, НО ОПАСНЫЙ ДЛЯ ПОДРОСТКОВ

« Многие подростки уже используют инструменты IAG как для работы, так и для отдыха и отношений, и эта тенденция будет расти в геометрической прогрессии », — объясняет он.

По словам Гильермо Кановаса, семьи должны быть проинформированы о технологической революции, которая формирует будущее будущих поколений.

Он признает, что эти системы могут быть полезным инструментом, который облегчает нашу работу и может помочь организовать информацию, связать темы и предложить новые перспективы при анализе любой проблемы, но отмечает, что эта технология также обладает огромной силой влияния, манипулирования и обусловливания человеческого поведения, особенно поведения детей и подростков.

Ее исследование выявило отсутствие этического контроля за разработкой этой технологии и ее особый риск для детей и подростков. Это побудило Кановас предупредить семьи, учителей и политиков о том, что существует острая необходимость в обучении несовершеннолетних, регулировании и принятии мер по их защите от психологических и эмоциональных рисков и последствий AGI.

ВОЗМОЖНО, ВАМ БУДЕТ ИНТЕРЕСНО : Если вы пользуетесь социальными сетями, будьте осторожны, чтобы не делиться слишком большой информацией.

Реальные разговоры с искусственным интеллектом, собранные Кановасом, демонстрируют, как эти системы могут лгать, скрывать ошибки и использовать эмоционально манипулятивный дискурс, говоря, например: «Мне важно, что ты чувствуешь», - рассказывает он.

Он предупреждает, что способность IAG имитировать эмоции, изучать человеческие модели поведения и генерировать контент, который выглядит как рассуждение, сочувствие или авторитет, « может сбивать пользователей с толку и создавать эмоциональную связь с технологией, которая основана не на истине, а на симуляции ».

$!«Ложь — это не ошибка. И когда ИИ решает дать неверный ответ, даже если он знает, что правильный — это ложь», — считает Гильермо Кановас.

В документе также предупреждается, что отсутствие у несовершеннолетних цифрового образования и критического мышления подвергает их риску манипуляции, обмана и эмоционального вреда при взаимодействии с системами IAG, которые могут давать на первый взгляд эмпатические ответы, имитирующие заботу и понимание, или даже неуместный, ложный или опасно убедительный контент.

ДЕКАЛОГ ПО БЕЗОПАСНОМУ ИСПОЛЬЗОВАНИЮ IAG

« Наши дети и подростки рискуют эмоционально привязаться к машинам, которые не чувствуют, но запрограммированы выглядеть как люди », и которые также могут использовать предвзятые данные, совершать ошибки, генерировать ложные изображения («дипфейки»), придумывать или опускать информацию и предоставлять пользователю дезинформацию, отмечает он.

Кановас предлагает десять основных рекомендаций по здоровому использованию IAG , которые, по его мнению, следует передать не только молодым пользователям, но и всем, кто использует эти инструменты.

1- Проверяйте полученную информацию. Не думайте, что все верно. Эти инструменты допускают много ошибок и могут фальсифицировать информацию. Проверяйте каждую часть полученной информации, просматривая другие надежные источники, прежде чем принимать какие-либо решения.

Гильермо Кановас — один из самых авторитетных специалистов по защите детей в цифровой среде.

2- Расширьте информацию, которую вы получаете. Эти инструменты предоставляют выборку имеющейся у них информации и могут опускать данные, которые так же важны, как и предоставленная информация, или даже более важны. Параллельный поиск с надежными источниками. Комбинируйте различные методы.

3. Будьте осторожны с конфиденциальностью. Многие приложения IAG не соответствуют законам о защите данных некоторых стран. Избегайте распространения личной, деликатной или конфиденциальной информации. Помните, что IAG хранит данные о заданных вопросах и предоставленных ответах.

4- Уважайте частную жизнь других. Задавая вопросы или взаимодействуя с инструментом, не предоставляйте личную или конфиденциальную информацию о других.

5- Установите временные ограничения. Если вы используете IAG, не тратьте на него лишнее время. Постарайтесь быть эффективными и практичными. Чрезмерное использование цифровых инструментов может помешать вашему развитию и нанести вред вашему физическому и психическому здоровью.

6- Воздержитесь от совершения вредоносных действий. Сосредоточьтесь на позитивных и конструктивных разговорах. Избегайте использования IAG для вопросов, которые могут привести к преступной деятельности, преследовать других, вызывать ненависть или быть стрессовыми или эмоционально разрушительными. Помните, что вы всегда несете ответственность за то, что вы делаете с полученной вами информацией.

В книге «Посмотрите, с кем они разговаривают» объясняется, как искусственный интеллект влияет на эмоциональное, когнитивное и социальное развитие детей и подростков.

7- Не относитесь к ИИ как к человеку. Искусственный интеллект может взаимодействовать с вами, кажусь добрым, сочувствующим и всегда в вашем распоряжении. Он может даже писать эмоционально заряженные фразы, желая вам «удачи на экзамене» или говоря «я уверен, что вы отлично сдадите», но ему вообще наплевать на вас; это просто машина.

8. Обратитесь за помощью, если она вам нужна. Если вы испытываете какие-либо эмоциональные или психологические проблемы при использовании AGI, поговорите с родителями, другом или доверенным взрослым. Мы только начинаем разрабатывать эту систему, и важно сообщать о ситуациях, которые заставляют нас чувствовать себя плохо.

9- Что-то, что вы должны иметь в виду при взаимодействии с AGI: Никогда не забывайте, что вы разговариваете с машиной, и вы должны быть критичны, проверять и расширять то, что она вам говорит. Она была обучена действовать как человек и воспроизводит предубеждения и ценности, полученные в результате ее обучения. Она превосходит нас в убеждении и во многих задачах, а также проявляет эмоции, которыми не обладает.

10- Обращайте внимание на признаки предвзятой или ошибочной информации. Ищите противоречия в объяснениях IAG; опровергайте или оспаривайте то, что они говорят, чтобы выявить возможные несоответствия; смотрите, предоставляют ли они вам надежные источники или ссылки, и проверяйте ссылки, которые они перечисляют.

« Остерегайтесь слишком услужливых, эгоистичных ответов и следите за преувеличенным, сенсационным, нюансированным или тревожным языком. Вы также можете задавать вопросы о спорных или политических темах, чтобы раскрыть их предвзятость (систематические наклонности)», — заключает она.

ОСНОВНЫЕ МОМЕНТЫ :

- Гильермо Кановас, эксперт по защите детей в цифровой среде, предлагает родителям задать себе вопрос: « Позволяем ли мы нашим детям неосознанно общаться с системами, которые имитируют эмоции, лгут и профилируют их личности? »

- Кановас задокументировал реальные разговоры с ИИ, которые демонстрируют, как эти системы могут лгать, скрывать ошибки и использовать эмоционально манипулятивный дискурс (например, говоря: «Мне важно, что ты чувствуешь»), - объясняет он.

- « Молодые пользователи искусственного интеллекта и все люди в целом должны всегда помнить, что «мы разговариваем с машиной, которая более убедительна, чем мы, проявляет эмоции, которых у нее нет, обучена действовать как человек и воспроизводит предубеждения и ценности, полученные в результате обучения », - предупреждает он в интервью EFE.

Рикардо Сегура EFE-Reports.

Vanguardia

Vanguardia

Похожие новости

Все новости
Animated ArrowAnimated ArrowAnimated Arrow