Korzyści biznesowe i ryzyko tożsamości związane z agentową sztuczną inteligencją – TREŚCI SPONSOROWANE Z CYBERARK


Bezpieczeństwo tożsamości to dziedzina zajmująca się ograniczaniem wszystkich aspektów ryzyka związanego z tożsamością, co wymaga identyfikacji, zarządzania i ochrony wszystkich tożsamości w organizacji. Ta dziedzina staje się coraz bardziej złożona.
W przeszłości zespoły ds. bezpieczeństwa koncentrowały się na tożsamościach ludzi i zapewnianiu im odpowiedniego poziomu dostępu do zasobów niezbędnych do wykonywania ich zadań. W ostatnich latach ten nacisk rozszerzył się na zabezpieczanie tożsamości maszyn w celu ochrony poufnych informacji, certyfikatów i obciążeń.
Najnowszym wyzwaniem w zakresie złożoności tożsamości jest sztuczna inteligencja oparta na agentach. Teraz, gdy firmy wdrażają agentów AI, wyzwaniem jest zapewnienie tożsamości, która będzie dzielić wyzwania bezpieczeństwa zarówno ludzi, jak i maszyn.
Czy agenci AI stanowią nową klasę tożsamości?
Agenci AI są z definicji maszynami, ale ich zdolności do podejmowania decyzji i uczenia się są bardziej zbliżone do ludzkich. Agentowa sztuczna inteligencja wykorzystuje zaawansowane algorytmy i uczenie maszynowe do wykonywania zadań i podejmowania decyzji w imieniu ludzi.
Agenci w złożonych systemach sztucznej inteligencji opartej na agentach potrafią postrzegać otoczenie, przetwarzać informacje, podejmować decyzje, a nawet uczyć się i doskonalić z czasem. To sprawia, że agenci ci są czymś więcej niż tylko tożsamościami maszyn. Mogą również pracować niezależnie, z minimalnymi podpowiedziami i nadzorem człowieka.
Wyzwania nowej klasy tożsamości
Skala i nadzór stanowią istotne wyzwania w przypadku tożsamości AI, podobnie jak w przypadku tożsamości maszyn. Tradycyjne tożsamości maszyn przewyższają obecnie liczebnie tożsamości ludzkie w stosunku 82:1 , a do 2028 roku 33% aplikacji korporacyjnych będzie zawierać agentową AI, w porównaniu z niecałym 1% w 2024 roku, według Gartnera .
Organizacje muszą wdrożyć te tożsamości, przyznać im odpowiedni dostęp, zarządzać nimi, a ostatecznie je wycofać. Podjęcie tych kroków byłoby wystarczająco trudne w przypadku tożsamości ludzkich lub maszynowych. Wprowadzenie tożsamości AI znacznie zwiększa złożoność.
Agenci AI potrzebują dostępu do zasobów przedsiębiorstwa. Ale jak zarządzać tym dostępem i określać poziom uprawnień, jakiego potrzebują agenci? I jak radzić sobie z tymi wyzwaniami związanymi z dostępem, nie zwiększając obciążenia zespołów interwencją człowieka – co potencjalnie niweczy produktywność, którą chcesz osiągnąć dzięki agentom AI?
Niektóre organizacje, które chcą wdrożyć agentów AI, mogą przyznać szerokie uprawnienia, aby przyspieszyć wdrożenie. Jeśli jednak w rezultacie agent zostanie naruszony, może to spowodować poważne szkody.
Agenci AI nie są również świadomi bezpieczeństwa i nie odróżniają dobra od zła. Można ich zaprogramować do wykrywania anomalii i sygnalizowania nietypowych zachowań – co jest niezwykle pomocne w zapobieganiu oszustwom. Mogą jednak być również podatni na własne luki w zabezpieczeniach, bez ludzkiej zdolności do dostrzegania podejrzanych scenariuszy (takich, których nie można przewidzieć).
Dotyczy to również tożsamości maszyn, ale ponieważ firmy wymagają od agentów AI przejęcia funkcji ludzi i maszyn, agenci ci mogą potrzebować większego dostępu do poufnych systemów i zasobów, a w przypadku naruszenia ich bezpieczeństwa narazić organizację na większe ryzyko.
Użycie agentów AI jest nowością i nie podlega regulacjom, co zawsze wiąże się z ryzykiem. Ponieważ każdy może zbudować agenta AI, wielu agentom brakuje odpowiednich zabezpieczeń.
Podobnie jak w przypadku innych typów urządzeń i oprogramowania, sztuczna inteligencja typu shadow AI może stanowić duże wyzwanie, ponieważ pracownicy mogą korzystać z agentów AI bez informowania o tym działu IT lub bez upewnienia się, że wprowadzenie tych agentów do środowiska organizacji jest bezpieczne.
Jeśli nie ma bezpiecznego sposobu zatwierdzania i wdrażania wszystkich agentów AI, organizacja wprowadzająca tych agentów może nie być świadoma ryzyka, jakie ze sobą niosą.
To tylko kilka zagrożeń bezpieczeństwa związanych z wdrażaniem agentów AI. Widać jednak, że wspólnym mianownikiem jest potrzeba strategii bezpieczeństwa, która traktuje tożsamości AI z taką samą rygorystycznością, jak w przypadku ludzi i maszyn.
Rozwój strategii bezpieczeństwa tożsamości
Zasady zapewniania bezpieczeństwa tożsamości, które dotyczą ludzi i maszyn, muszą zostać rozszerzone na tożsamości AI. Ramy bezpieczeństwa, które działają dla wszystkich tożsamości, muszą obejmować pełną widoczność listy tożsamości AI i ich aktywności, silne mechanizmy uwierzytelniania oraz sposób egzekwowania dostępu z minimalnymi uprawnieniami i kontroli dostępu just-in-time.
Protokół MCP (ang. Emerging Model Context Protocol) stanowi doskonałą platformę startową do komunikacji agentów. Jednak protokół ten nie jest domyślnie bezpieczny. Organizacje muszą wdrożyć polityki bezpieczeństwa dla agentów AI, tak jak robią to w przypadku ludzi i maszyn.
Zacznij od oceny obecnego podejścia Twojej organizacji do bezpieczeństwa tożsamości. Czy możesz je dostosować do potrzeb sztucznej inteligencji, na przykład zapewniając obsługę ogromnego wzrostu liczby tożsamości, a także pełną widoczność i kontrolę nad uprawnieniami do nich?
Prowadzenie tych rozmów teraz przygotuje Twoją firmę na wprowadzenie agentów AI, którzy z pewnością pojawią się w Twojej firmie.
CyberArk to światowy lider w dziedzinie bezpieczeństwa tożsamości, któremu zaufały organizacje na całym świecie w zakresie ochrony tożsamości ludzi i maszyn w nowoczesnych przedsiębiorstwach. Platforma Bezpieczeństwa Tożsamości CyberArk, oparta na sztucznej inteligencji, stosuje inteligentną kontrolę uprawnień do każdej tożsamości, zapewniając ciągłą ochronę przed zagrożeniami, ich wykrywanie i reagowanie na nie w całym cyklu życia tożsamości.
Dowiedz się więcej o strategii bezpieczeństwa tożsamości dla sztucznej inteligencji agentowej .
Harvardbusiness