Agentic AI a niepełnosprawność: nowa autonomia cyfrowa | NTT DATA

pt., 13 lutego 2026

Agentic AI a niepełnosprawność: ramy prawdziwej autonomii cyfrowej

Jako osoba z niepełnosprawnością wzrokową przez większą część życia miałem przy sobie cichego towarzysza - technologię, która docierała do mnie poprzez równy rytm czytnika ekranu. Ten głos zamieniał płaskie piksele w znaczenie, nawigację w realne możliwości, a przestrzeń cyfrową w miejsce, do którego mam dostęp i w którym mogę aktywnie uczestniczyć. 

Gdy jednak w generatywnej sztucznej inteligencji zaczęły pojawiać się funkcje oparte na obrazie, doświadczyłem czegoś zupełnie nowego. Obrazy, które wcześniej były jedynie pustymi, milczącymi kształtami, zaczęły układać się w szczegółowe sceny. Złożone wykresy nabrały sensu. Kontekst, który kiedyś był poza moim zasięgiem, stał się informacją, z której mogłem realnie skorzystać. 

Żeby była jasność, ta technologia wciąż nie jest doskonała. Często przypomina raczej nieco chaotyczny taniec pełen wymagających kroków: zrób zrzut ekranu, przełącz aplikację, prześlij plik, wpisz polecenie i czekaj. A jednak nawet w tym nie do końca płynnym procesie sam potencjał „widzenia” dzięki algorytmom wciąż budzi we mnie autentyczny zachwyt.

Wkraczamy w erę Agentic AI

Gdy dopiero zaczynamy oswajać się z tymi możliwościami, na horyzoncie pojawia się kolejna, jeszcze głębsza zmiana.

Agentic AI, czyli agentowa sztuczna inteligencja, zapowiada przeniesienie tego doświadczenia na zupełnie nowy poziom, wykracza poza pojedyncze polecenia i prowadzi w stronę zintegrowanego działania. Wprowadza systemy, które potrafią zrozumieć moje intencje, skoordynować różne narzędzia, podejmować decyzje w granicach, które sam wyznaczę, oraz realizować wieloetapowe zadania w moim imieniu.

Przejście od technologii, która jedynie reaguje na polecenia, do takiej, która aktywnie ze mną współpracuje, by osiągać konkretne rezultaty, może stać się przełomem na nowo definiującym niezależność dla ponad miliarda osób z niepełnosprawnościami na całym świecie.

Według Światowej Organizacji Zdrowia około 1,3 miliarda ludzi na świecie żyje z niepełnosprawnością. Ta liczba pokazuje skalę wciąż niezaspokojonych potrzeb w obszarze dostępności i integracji społecznej. Agentic AI może stać się katalizatorem zmian, który wreszcie pomoże wypełnić długo istniejące luki w uczestnictwie pod warunkiem, że jej rozwój będzie oparty na jasnych zasadach etycznych oraz na realnych doświadczeniach społeczności osób z niepełnosprawnościami.

Zrozumieć Agentic AI w ludzkich kategoriach

Generatywna sztuczna inteligencja (Gen AI) pozwala nam zadawać pytania i otrzymywać płynne, trafne odpowiedzi. Agentowa sztuczna inteligencja (Agentic AI) idzie o krok dalej przechodzi od odpowiadania do działania. Jest zorientowana na realizację celów: potrafi planować zadania, dobierać narzędzia, dostosowywać się do zmieniających się warunków i konsekwentnie dążyć do celu, zamiast jedynie odpowiadać na pojedyncze „prompty”. 

Najprościej mówiąc, agentowa AI bazuje na modelach generatywnych, ale wzbogaca je o trzy kluczowe elementy:

  • potrafi rozłożyć cel na konkretne etapy,
  • potrafi zdecydować, z jakich narzędzi lub usług skorzystać na każdym z nich,
  • obserwuje rezultaty i na bieżąco koryguje swój plan działania.

W praktyce oznacza to, że system nie tylko udziela odpowiedzi, ale realnie wspiera realizację zadań. Często w wielu aplikacjach i kontekstach jednocześnie.

W codziennym życiu mogłoby to wyglądać tak: zamiast prosić o „podsumowanie raportu”, mógłbym powiedzieć „przygotuj mnie do jutrzejszego spotkania z klientem”.

Agentowy system mógłby wtedy przejrzeć moje e-maile, dokumenty firmowe i wątki na czacie, wybrać najważniejsze aktualizacje, wyciągnąć kluczowe wnioski ze slajdów, a następnie przygotować dostępne podsumowania w formatach najlepiej dopasowanych do moich potrzeb. Zamiast jedynie opisywać obraz, mógłby też odnaleźć powiązane informacje, proaktywnie usuwać bariery dostępności i przekształcać dane wizualne w uporządkowane tabele, po których mógłbym swobodnie poruszać się za pomocą czytnika ekranu.

Dla osób niewidomych lub słabowidzących oznacza to realny krok w stronę prawdziwej cyfrowej autonomii.

W jaki sposób Agentic AI zwiększa ludzką niezależność

Agentowa sztuczna inteligencja ma potencjał, by zmienić nasze doświadczenia w trzech kluczowych obszarach codziennego życia. 

1. Nawigacja przez informacje: poznawczy sprzymierzeniec 

Przeciążenie informacyjne dotyka dziś właściwie każdego, jednak osoby niewidome często napotykają dodatkowe bariery. Szczególnie wtedy, gdy interfejsy są niespójne, a treści nie są dostosowane do czytników ekranu. Generatywna AI już teraz stanowi wsparcie, pomagając streszczać wiadomości i upraszczać obszerne dokumenty. 

Agentowa AI może jednak pójść o krok dalej, stając się prawdziwym sprzymierzeńcem poznawczym. Może filtrować informacje zgodnie z moimi priorytetami, wskazywać pilne sprawy, grupować powiązane treści, przekształcać elementy wizualne w dostępne formaty oraz tworzyć spersonalizowane podsumowania wiedzy. Nawet jeśli pochodzą z różnych aplikacji. 

W praktyce oznacza to mniej wysiłku związanego z przedzieraniem się przez chaotyczne lub tylko częściowo dostępne systemy i więcej klarownych wniosków wynikających z technologii zaprojektowanej z myślą o dostępności. 

2. Orientacja w przestrzeni fizycznej i cyfrowej: kierowana, a nie oparta na domysłach 

Orientacja i mobilność to złożone wyzwania, nawet przy wsparciu dostępnych dziś technologii. Wielu z nas polega jednocześnie na mapach tworzonych w wyobraźni, danych GPS, zapamiętanych trasach oraz wskazówkach płynących z otoczenia. 

Agentowa AI mogłaby połączyć dane o budynkach, informacje z czujników, mapy, komputerowe systemy wizyjne oraz dane o otoczeniu w czasie rzeczywistym, aby wyznaczać w pełni dostępne trasy  na przykład przez lotniska, biura czy przestrzenie publiczne. Zamiast jedynie opisywać to, co znajduje się wokół, potrafiłaby przewidywać przeszkody, z wyprzedzeniem zmieniać trasę, współpracować z systemami budynkowymi, takimi jak windy czy interfejsy aplikacji Digital Signage oraz koordynować wiele źródeł informacji jednocześnie. 

W efekcie poruszanie się przestałoby być zgadywaniem, a stałoby się doświadczeniem, w którym jesteśmy świadomie prowadzeni. To nawigacja rozumiana jako inteligentne partnerstwo. 

3. Praca i udział w życiu ekonomicznym: od barier do równości 

Generatywna AI i powiązane z nią technologie mogą zautomatyzować znaczną część zadań opartych na języku i analizie, stopniowo zmieniając sposób, w jaki pracujemy w wielu branżach. Dla profesjonalistów z niepełnosprawnościami nie chodzi jednak wyłącznie o większą produktywność.  Równie ważna jest realna równość szans. 

Agentowa AI może działać jak niewidoczny, ale niezwykle skuteczny sojusznik. Potrafi przekształcać niedostępne pulpity nawigacyjne w czytelne, narracyjne podsumowania, automatyzować powtarzalne raporty, wydobywać istotne informacje ukryte w rozbudowanych bazach wiedzy oraz sygnalizować problemy z dostępnością w procesach zespołowych. 

Dzięki temu współpraca staje się łatwiejsza i bardziej efektywna nawet wtedy, gdy używane narzędzia nie są w pełni dostosowane do różnych potrzeb. Praca przestaje polegać na ciągłym pokonywaniu barier, a zaczyna koncentrować się na tym, co naprawdę ważne: wykorzystaniu kompetencji, doświadczenia i kreatywności.

Stoimy dziś na etycznym rozdrożu 

Autonomia, jaką niesie ze sobą agentowa AI, rodzi wyzwania etyczne głębsze niż te, z którymi mierzyliśmy się w przypadku wcześniejszych systemów AI. Globalne ramy takie jak Zasady OECD dotyczące sztucznej inteligencji czy rekomendacje UNESCO w sprawie etyki AI, kładą nacisk na znaczenie godności i praw oraz realnego, świadomego nadzoru ze strony człowieka. 

Przeniesienie tych wartości na obszar niepełnosprawności oznacza konieczność zmierzenia się z bardzo konkretnymi zagrożeniami:

Kto kontroluje cele? 

System zaprojektowany tak, by optymalizować bezpieczeństwo lub efektywność, może po cichu ograniczać dostępne opcje, uznając niektóre z nich za zbyt ryzykowne i nie informować mnie o tym, co zostało pominięte. Może na przykład ukrywać część tras podczas nawigacji, zawężać możliwości przy dopasowywaniu ofert pracy, albo kierować mnie w stronę „prostszych” wyborów. 

Tymczasem autonomia zaczyna się kurczyć w momencie, gdy optymalizacja odbywa się poza moją wiedzą. Dlatego osoby z niepełnosprawnościami muszą mieć realną możliwość definiowania własnych celów, ustalania granic działania systemu oraz sprawdzania, kiedy agent podjął kompromis w ich imieniu. 

Jakie dane wpływają na decyzje agenta? 

Jeśli dane wykorzystywane do trenowania systemów nie odzwierciedlają w wystarczającym stopniu doświadczeń osób z niepełnosprawnościami, sztuczna inteligencja agentowa może opierać swoje działania na błędnych założeniach. W praktyce oznacza to ryzyko niewłaściwej interpretacji sposobów interakcji, uznawania naturalnych różnic za anomalie czy utrwalania norm obecnych w historycznych danych, które bywają dyskryminujące. 

Gdy agenci zaczynają automatyzować decyzje związane z zatrudnieniem, dostępem do usług czy przydzielaniem wsparcia, takie uprzedzenia przestają być jedynie problemem technicznym. Stają się barierami strukturalnymi, odczuwalnymi na szeroką skalę. 

Ile kontekstu to już za dużo? 

Aby udzielać możliwie najskuteczniejszego wsparcia, systemy agentowe mogą potrzebować dostępu do mojego kalendarza, historii komunikacji, dokumentów, a nawet wzorców zachowań. Tymczasem osoby z niepełnosprawnościami już dziś bywają poddawane zwiększonej kontroli zarówno w miejscu pracy, jak i w różnych systemach usługowych. Istnieje więc realne ryzyko, że „pomocna” sztuczna inteligencja stanie się kolejną warstwą nadzoru. 

Dlatego każde wdrożenie powinno jasno określać granice: jakie dane są gromadzone, kto może z nich korzystać oraz w jaki sposób mogą być wykorzystywane, wyłącznie w zakresie, który przynosi bezpośrednią korzyść użytkownikowi. 

Co się dzieje, gdy agenci zawodzą? 

Błędy w systemach reaktywnych zwykle mają charakter lokalny. Błędnie odczytany obraz czy niedokładne streszczenia bywają irytujące, ale ich konsekwencje są ograniczone. 

W przypadku systemów agentowych skutki pomyłek mogą rozprzestrzeniać się niczym efekt domina. Nieporozumienie w e-mailu wysłanym w moim imieniu może zaszkodzić relacjom zawodowym czy osobistym, a błąd w nawigacji może postawić mnie w realnie niebezpiecznej sytuacji. Dlatego niezawodność, przejrzyste logi działań agenta oraz praktyczne mechanizmy cofania wykonanych operacji stają się niezbędnym elementem odpowiedzialnego projektowania takich systemów. 

Cztery kluczowe ramy określające wsparcie dla niepełnosprawności

Aby przekształcić potencjał agentowych AI w rzeczywisty postęp, potrzebujemy ram uwzględniających potrzeby osób z niepełnosprawnościami, takich, które liderzy, projektanci i inżynierowie będą mogli zastosować w praktyce. Cztery fundamentalne zasady stanowią w tym zakresie solidną podstawę. 

  1. Autonomia (wybór i kontrola): Głównym celem agentowych AI powinno być poszerzanie możliwości wyboru użytkownika, a nie narzucanie rozwiązań w sposób nieprzejrzysty. Cele i priorytety muszą być ustalane przez osobę korzystającą z systemu, a nie wywnioskowane przez algorytm w sposób niejasny. Użytkownicy muszą mieć łatwą możliwość zastąpienia agenta, sprawdzania jego planów w zrozumiałym języku oraz rezygnowania z określonych działań według własnego uznania. 
  2. Dostępność (inkluzywność i wsparcie): Agentowa AI musi płynnie współpracować z technologiami asystującymi, zamiast z nimi konkurować. Powinna obsługiwać wymogi czytników ekranu, wspierać pełną nawigację za pomocą klawiatury, generować tekst alternatywny, zwracać dane o określonej strukturze i oferować różne formy prezentacji: audio, tekst i dotyk. 
  3. Odpowiedzialność (przejrzystość i rzetelność): Odpowiedzialność za działanie agenta spoczywa na organizacjach i deweloperach, a nie na osobach z niepełnosprawnościami, które korzystają z tych narzędzi. Systemy muszą prowadzić przejrzystą dokumentację działań agenta, wykorzystywanych danych oraz decyzji podejmowanych automatycznie. Użytkownicy potrzebują jasnych kanałów komunikacji, pozwalających im kwestionować wyniki, a w sytuacjach o wysokiej stawce, wymagany jest realny udział człowieka w procesie decyzyjnym.
  4. Organizacja (współpraca z osobami niepełnosprawnymi): Osoby z niepełnosprawnościami muszą aktywnie współtworzyć i współdecydować o rozwoju oraz zarządzaniu sztuczną inteligencją. Wczesne testy z ich udziałem, role doradcze, metody projektowania partycypacyjnego oraz możliwości obejmowania stanowisk przywódczych w programach AI nie są jedynie „dodatkiem”. To właśnie one decydują o tym, czy narzędzia naprawdę wzmacniają pozycję użytkowników, czy przypadkowo prowadzą do ich wykluczenia.

Era kolaboratywnej autonomii 

Granica między „technologią asystującą” a „technologią głównego nurtu” zaczyna się zacierać. To rzadka okazja, by ułatwienia dostępu stały się integralną częścią projektowania systemów sztucznej inteligencji, przekształcając je z reaktywnych narzędzi w prawdziwych, inteligentnych partnerów. 

Jednak ta przyszłość nie jest gwarantowana. Wiemy, jaki jest koszt bycia pomijanym. Sztuczna inteligencja agentowa może znacząco zwiększyć możliwości osób z niepełnosprawnościami, eliminując wieloletnie utrudnienia, ale tylko wtedy, gdy zostanie właściwie zaprojektowana. 

Technologia jest gotowa do współpracy. Pytanie brzmi: czy programiści są gotowi słuchać? Pierwszym krokiem jest uwzględnianie głosów osób z niepełnosprawnościami nie tylko podczas testowania, lecz także już w procesie tworzenia kodu. Jeśli już teraz, w agentowej AI osadzimy właściwe wartości, to nie tylko będzie nam pomagać, ale także przyczyni się do stworzenia świata zaprojektowanego dla wszystkich.


Najnowsze materiały

Masz pytania? Porozmawiajmy

Skontaktuj się z nami