Strona głównaSekcjeSekcja Aktualne Wyzwania Sztucznej InteligencjiAI bez złudzeń. Wyzwania sztucznej inteligencji oczami Zarządu Sekcji AWSI

AI bez złudzeń. Wyzwania sztucznej inteligencji oczami Zarządu Sekcji AWSI

-

Technologia sztucznej inteligencji bez wątpienia się rozwija – coraz doskonalsze modele, coraz większe zbiory danych, coraz śmielsze eksperymenty. Ale w praktyce jej wdrażanie wcale nie jest proste. Z jednej strony daje ogromne możliwości – automatyzuje procesy, wspiera analizę danych, usprawnia komunikację. Z drugiej – coraz wyraźniej widać bariery: brak specjalistów, niepewność regulacyjna, ryzyka etyczne, strach przed utratą kontroli i zaufania. W wielu organizacjach tempo wdrażania AI nie jest już ograniczone technologią, lecz właśnie czynnikami społecznymi, prawnymi i organizacyjnymi.

Od dwóch lat Sekcja Aktualne Wyzwania Sztucznej Inteligencji przy PTI działa na rzecz zrozumienia i pokonywania realnych wyzwań związanych z AI. Tworzą ją eksperci z różnych dziedzin – naukowcy i praktycy – dla których AI to nie modny slogan, lecz złożony obszar wymagający współpracy między technologią, prawem, etyką i bezpieczeństwem.

Sekcja zrealizowała już wiele inicjatyw edukacyjnych i popularyzatorskich: panele dyskusyjne, webinary dla administracji publicznej, otwarte wykłady i szkolenia dla studentów i profesjonalistów oraz publikacje poświęcone etyce AI. Te działania pokazały, że możliwe jest skuteczne łączenie środowisk akademickich, biznesowych i naukowych, tworząc przestrzeń do refleksji nad praktycznymi i etycznymi aspektami sztucznej inteligencji.

Teraz sekcja wkracza w kolejny etap swojej działalności z nowym zarządem, który chce jeszcze mocniej rozwijać działania edukacyjne, docierając do szerszego grona odbiorców i pogłębiając dyskusję o wyzwaniach, barierach i odpowiedzialnym wykorzystaniu AI.

Aby lepiej poznać priorytety i spojrzenie nowych członków zarządu, zadaliśmy im jedno wspólne pytanie:

Jakie Pani/Pana zdaniem są dziś największe aktualne wyzwania dla rozwoju i wdrażania sztucznej inteligencji w Polsce?

dr Gabriela Bar

Radczyni prawna, ekspertka prawa nowych technologii i etyki AI; zajmuje się prawnymi ramami rozwoju sztucznej inteligencji w Europie, w tym wdrażaniem unijnego AI Act.

 

Największym wyzwaniem, zarówno w Polsce, jak i w innych krajach UE, nie jest dziś technologia, lecz zaufanie. Zaufanie, którego nie buduje się przez obietnice, że będzie „super”, ani nawet przez wielomilionowe inwestycje w infrastrukturę. Buduje się je poprzez etyczne projektowanie – przejrzyste, odpowiedzialne i respektujące prawa podstawowe.

W praktyce oznacza to, że systemy AI muszą być sprawiedliwe, bezpieczne i możliwe do wyjaśnienia w takim stopniu, w jakim jest to potrzebne różnym grupom użytkowników. Kluczowe pytanie brzmi nie czy rozwijać sztuczną inteligencję, lecz jak zapewnić, by rozwijała się w sposób, który wzmacnia – a nie podważa – zaufanie do technologii. Prawo i etyka nie są tu hamulcem postępu, lecz warunkiem rozwoju rozumianego jako dobrostan człowieka i środowiska.

Cyfrowa suwerenność jest z pewnością elementem tego dobrostanu, ale równie ważne jest inwestowanie w naukę, edukację i rozwój talentów. W Polsce mamy ogromny potencjał intelektualny, ale utalentowani młodzi ludzie niestety zbyt często rozwijają swoje kariery poza granicami kraju. Nie musimy konkurować budżetami z Doliną Krzemową, ale wciąż możemy tworzyć przestrzeń dla tych talentów tu, w Polsce, rozwijając AI np. w ramach projektów badawczych i innowacyjnych.

 

Wojciech Bednaruk

Lider zespołu People-Centric Technology w PwC, audytor EU AI Act, wykładowca etyki AI; specjalizuje się w edukacji technologicznej i włączaniu etyki w praktykę biznesową.

 

Największym wyzwaniem dla AI w Polsce jest przyjęcie realistycznej samoświadomości naszego miejsca w globalnym porządku technologicznym. Jesteśmy prowincjonalnym zakątkiem świata w rewolucji, która ukształtuje globalne relacje władzy na pokolenia. Nie jesteśmy architektami tej transformacji, jesteśmy jej odbiorcami.

Ta prowincjonalność nie oznacza bezsilności. Jeśli naszą rolą jest bycie publicznością, to bądźmy publicznością świadomą. Potrzebujemy rozumienia, że AI Big Techów nie jest jedyną możliwą formą AI i że ta technologia może służyć społeczeństwu.

Nasze pole działania to innowacyjność w aplikacji. To oddolne wdrożenia służące pragnieniu lepszego społeczeństwa opartego na solidarności i empatii. Potrzebujemy kultury technologicznego empowermentu pozwalającej świadomie korzystać z narzędzi, rozumieć ich ograniczenia i negocjować warunki ich obecności w naszym życiu.

 

dr hab. Maria Ganzha

Profesor Politechniki Warszawskiej, badaczka systemów wieloagentowych, semantycznego internetu i koncepcji zaufanej AI; reprezentuje naukowe spojrzenie na wiarygodność i transparentność systemów inteligentnych.

 

Największym wyzwaniem, z mojego punktu widzenia, jest prawidłowe określenia miejsca oraz roli AI w życiu tak społeczeństwa, jak i każdego człowieka indywidualnie. Oznacza to między innymi „wyjaśnienie” jak największej liczbie osób, co może, czego nie może, i czego najprawdopodobniej NIE POWINNA móc sztuczna inteligencja (dziś i w niedalekiej przyszłości).

Generatywna Sztuczna inteligencja zaskoczyła nas/społeczeństwo możliwościami dostarczania „rozsądnych odpowiedzi” (odpowiedzi brzmiących sensownie i wyglądających na dobrze uzasadnione). Spowodowało to spore „zamieszanie” w społeczeństwie. Na przykład dla wielu ludzi generatywna sztuczna inteligencja stała się wyrazem tego, czym jest cała sztuczna inteligencja. Wielu osobom natychmiast przyszły do głowy dreszczowce typu „Terminator” lub „Matrix”, gdzie „niedobra AI” walczy przeciwko człowiekowi/ludzkości. Dla innych osób generatywna sztuczna inteligencja stała się „protezą” zastępującą wszystkie braki: sekretarką, przyjacielem, lekarką, psycholożką, kochankiem, itd. Wszystkie te wątki są niebezpieczne.

Warto przypomnieć, że pojęcie sztucznej inteligencji jest znacznie szersze niż generatywna AI. Co więcej, sporo rzeczywiście przydatnego AI już mamy w naszym codziennym życiu, czy też w dziedzinach takich jak medycyna, energetyka, transport, awiacja, przemysł, bankowość. Tak więc z AI da się „żyć” i pracować/współpracować. Jeżeli mówić o „filmowych scenariuszach”, to może warto sobie przypomnieć, że nawet w tych filmach w końcu człowiek jest lepszy niż ta „wszechmogąca/wszechwiedząca AI”. Natomiast rzeczywiście największym realnym problemem może stać się „zaprzyjaźnione AI”, od którego będziemy się „uzależniać”. Niestety na ten moment widzimy tylko pierwsze oznaki tego zjawiska i trudno jest ocenić, jakie będą rzeczywiste skutki.

Oznacza to jednak, że nie możemy machnąć ręką i spokojnie przyjmować „darów od AI”. Wręcz przeciwnie, musimy zrozumieć (i to jest najważniejsza wiedza do przekazania społeczeństwu), że AI to nie kamerdyner, który nas we wszystkim zastąpi, a my będziemy bezmyślnie siedzieć przed ekranem, oglądając kolejne filmiki. Należy myśleć o AI jak o „sparring-partnerce”, która pomoże nam skutecznie „ćwiczyć zwoje mózgowe”, czyli będzie wspierać myślenie i kreatywność.

 

Radosław Kita
Dyrektor AI w TVN Warner Bros. Discovery; praktyk wdrażania uczenia maszynowego i modeli generatywnych w organizacjach komercyjnych, gdzie technologia musi spotkać się z biznesową rzeczywistością.

 

Moim zdaniem, gdy mówimy o używaniu sztucznej inteligencji, to mówimy o dwóch różnych światach.

 Z jednej strony mamy świat osobistych asystentów: copliota i chatów. Wkroczyły pełną parą w nasze życie i dramatycznie je zmieniły. Ale w większości przypadków używamy ich do prywatnych celów. Gdy mamy ich użyć w pracy, to stają nam przed oczami obawy o bezpieczeństwo danych czy kwestie prawne. W tym obszarze mocno brakuje sensownych programów edukacyjnych.

Drugi świat, to rozwiązania klasy enterprise. Duże systemy, przetwarzające w skrajnie krótkim czasie olbrzymie ilości danych. Dobrym przykładem są tutaj systemy rekomendacji treści. Tutaj wciąż mamy dramatyczny niedobór specjalistów. Nie chodzi o ludzi, którzy zbudowali fajny model na swoim laptopie. Ale o ludzi, którzy potrafią zaimplementować model w rozwiązaniu chmurowym. Rozumieją kwestie złożoności obliczeniowej równie dobrze jak kwestie uczenia maszynowego. Tutaj bardzo brakuje sensownej współpracy między uczelniami a praktykami-wdrożeniowcami.

 

Joanna Wziątek-Ładosz

Senior Security Engineer w Tenable, konsultantka cyberbezpieczeństwa i twórczyni podcastu „Cyberbezpieczeństwo po ludzku”; specjalizuje się w zagrożeniach związanych z AI i cyberbezpieczeństwem systemów IT oraz OT.

 

W mojej opinii największym wyzwaniem jest przede wszystkim brak świadomości cyberbezpieczeństwa w kontekście AI.  Organizacje wdrażają różne rozwiązania, nie myśląc o zagrożeniach typu deepfake, manipulacje danymi czy ataki na modele. Drugim problemem jaki obserwuję jest brak specjalistów potrafiących łączyć wiedzę o AI z bezpieczeństwem IT i OT, co jest kluczowe dla bezpiecznej cyfryzacji. Trzecie wyzwanie to regulacje, gdyż firmy czują presję NIS2, AI Act czy DORA, ale często nie wiedzą jak praktycznie je wdrożyć, zwłaszcza w kontekście systemów AI.


———————————————————————————————————————–

Wypowiedzi członków nowego zarządu pokazują, jak różne – a jednocześnie komplementarne – są perspektywy patrzenia na sztuczną inteligencję: od zaufania, prawa i etyki, przez edukację i świadomość społeczną, po realia biznesowe i cyberbezpieczeństwo. Łączy je jedno: przekonanie, że przyszłość AI nie zależy wyłącznie od jakości modeli i danych, lecz od ludzi, decyzji i wartości, które stoją za ich wykorzystaniem.

Sekcja AWSI zaprasza do współpracy wszystkich, którzy chcą aktywnie uczestniczyć w tej dyskusji – niezależnie od tego, czy reprezentują świat nauki, biznesu, administracji, prawa czy technologii. Jeśli interesuje Cię odpowiedzialny rozwój AI, edukacja, wymiana doświadczeń i realny wpływ na kierunek zmian, dołącz do sekcji i współtwórz z nami przestrzeń dialogu o sztucznej inteligencji w Polsce. Więcej informacji tutaj

Agata Cupriak

Najważniejsze informacje

Informacje z oddziałów