Sztuczna inteligencja w edukacji: zagrożenia i szanse dla uczniów i nauczycieli

Debata nie dotyczy już tego, czy sztuczna inteligencja (AI) powinna być wykorzystywana w szkołach. Według specjalistów z UNESCO i meksykańskiego środowiska akademickiego , pytanie brzmi teraz , jak, kiedy i w jakim celu powinna być wykorzystywana .
Podczas międzynarodowego seminarium „Rozwój, nauka i wspólne życie w erze cyfrowej” dyskutowano na temat zagrożeń i szans związanych z włączeniem tych narzędzi do życia szkolnego, od szkoły podstawowej po uniwersytet.
Andrés Morales, przedstawiciel UNESCO w Meksyku , zauważył, że dzieci rozpoczynające dziś naukę w szkole są „rodzimymi użytkownikami algorytmów”, ponieważ będą dorastać w otoczeniu inteligentnych systemów. Dlatego edukacja nie powinna koncentrować się na zakazywaniu lub ignorowaniu sztucznej inteligencji, ale na uczeniu dzieci rozumienia i odpowiedzialnego korzystania z niej .
Sztuczna inteligencja przynosi wyraźne korzyści:
- Spersonalizuj materiały edukacyjne dla każdego ucznia.
- Wczesne wykrywanie ryzyka porzucenia szkoły .
- Zmniejszenie obciążeń administracyjnych nauczycieli .
- Monitorowanie ścieżek szkoleniowych .
Ale stwarza też ryzyko:
- Wpływ uzależnienia cyfrowego i cyberprzemocy na zdrowie psychiczne .
- Wzmacnianie uprzedzeń i stereotypów.
- Osłabienie krytycznego myślenia i kreatywności .
- Utrata kontaktu z ludźmi w procesie uczenia się.
Morales zaproponował jasną mapę drogową dla współistnienia sztucznej inteligencji w klasach:
- Zaprojektuj krajową strategię etycznego i humanistycznego wykorzystania sztucznej inteligencji.
- Wzmocnienie kompetencji cyfrowych i algorytmicznych wśród nauczycieli i uczniów.
- Wykorzystanie sztucznej inteligencji do poszerzania wiedzy, a nie jej zastępowania , poprzez promowanie krytycznego myślenia i umiejętności społecznych.
- Promuj więcej badań naukowych na temat wpływu sztucznej inteligencji na uczenie się, zdrowie psychiczne i emocje.
Luz María Moreno, dziekan ds. badań w Tecnológico de Monterrey , podkreśliła, że humanistyka cyfrowa musi oceniać uprzedzenia, ryzyko i możliwości sztucznej inteligencji. Podkreśliła, że technologia musi służyć równości i sprawiedliwości społecznej , a nie tylko wydajności technicznej.
Ostrzegł, że do głównych zagrożeń należą:
- Luki w dostępie i nierówności edukacyjne .
- Dyskryminacja i stereotypy wzmacniane przez algorytmy .
- Uzależnienia cyfrowe i cyberprzemoc .
Jednocześnie zwrócił uwagę na trasy zaproponowane przez UNESCO:
- Inkluzywne projektowanie narzędzi cyfrowych.
- Demokratyczna innowacja i udział w zarządzaniu sztuczną inteligencją .
- Przejrzystość i odpowiedzialność w stosowaniu algorytmów.
- Dostęp do wymiaru sprawiedliwości w obliczu dyskryminacji algorytmicznej .
Podczas seminarium poruszono również takie tematy, jak tożsamość cyfrowa , wczesny kontakt z urządzeniami , bezpieczeństwo w okresie dojrzewania , wyzwania związane ze szkolnictwem wyższym i regulacje dotyczące sztucznej inteligencji .
Eksperci zgodzili się, że sztuczna inteligencja nie powinna zastąpić nauczycieli ani interakcji międzyludzkich, lecz stać się narzędziem wspomagającym naukę i rozwijającym nowe umiejętności u przyszłych pokoleń.
Wyzwaniem jest znalezienie równowagi pomiędzy innowacją i etyką, technologią i humanizmem, wydajnością i równością.
La Verdad Yucatán