Prawie 60 proc. klientów postrzega jako problem brak odpowiedzialności firm za szkodliwe wykorzystanie sztucznej inteligencji. W przypadku członków zarządów jest to 23 proc. Na rozbieżność oczekiwań wobec AI między konsumentami a przedstawicielami przedsiębiorstw zwraca uwagę badanie „AI Pulse” przeprowadzone przez EY.
Zrozumienie obaw klientów w związku ze sztuczną inteligencją deklaruje 63 proc. członków zarządów. Jednak tylko 23 proc. z nich widzi problem w braku odpowiedzialności za szkodliwe użycie AI. To staje w opozycji do zdania konsumentów, wśród których ten odsetek wynosi 58 proc. Rozbieżność pojawia się także w kwestii naruszania systemów bezpieczeństwa AI – za problem uważa to 32 proc. przedstawicieli firm i 64 proc. konsumentów. Podobnie w przypadku niewystarczających zabezpieczeń prywatności – elementy do poprawy dostrzega 31 proc. członków zarządów i 52 proc. klientów. Przy nieprzestrzeganiu regulacji i przepisów dotyczących AI trudności zauważa 23 proc. przedstawicieli firm oraz 52 proc. konsumentów.
Możliwe powody rozdźwięku wymienia Radosław Frańczak, Consulting Sales Leader w EY Polska. Jego zdaniem wśród przyczyn takiej sytuacji może być niejasna komunikacja pomiędzy działem technologicznym a zarządem, zbyt duża pewność co do wprowadzonych rozwiązań, a także niewłaściwy rozkład priorytetów w przypadku kwestii związanych z możliwym ryzykiem.
„Warto jednak zaznaczyć – podejście konsumentów w sprawie AI jest jednoznacznie, co oznacza, że firmy będą musiały zaadresować kwestie związane z bezpieczeństwem i odpowiedzialnym wykorzystaniem AI. Te które tego nie zrobią stracą w efekcie przewagę zbudowaną dzięki swoim wcześniejszym działaniom” – zaznacza Radosław Frańczak.
W badaniu sprawdzono także, jak stopień zaawansowania we wprowadzanie sztucznej inteligencji wpływa na zgodność z opiniami klientów. W przypadku tych, którzy dopiero wcielają technologie AI, przeświadczenie o zrozumieniu potrzeb konsumentów wynosi 51 proc. (to o 12 p.p. mniej względem firm zaawansowanych). Zdaniem 51 proc. badanych opracowanie ram zarządzania dla obecnych technologii AI jest wyzwaniem dla ich organizacji. 88 proc. deklaruje także chęć korzystania z SDG (Synthetic Data Generation), ale tylko 58 proc. jest świadomych zagrożeń, które mogą z tego wynikać.
„Wdrażanie innowacyjnych technologii, takich jak sztuczna inteligencja, wiąże się z rosnącymi wymaganiami regulacyjnymi, które często bywają niedostatecznie uwzględniane w strategiach bezpieczeństwa firm. A trzeba przecież pamiętać, że przyjęte rozporządzenie AI ACT zakazuje stosowania systemów, które m.in. »stosują techniki podprogowe lub manipulacyjne będące poza świadomością danej osoby lub wprowadzają w błąd«, a kary w tym wypadku mogą sięgać aż do 35 mln euro lub 7 proc. rocznego obrotu” – mówi Justyna Wilczyńska-Baraniak, Partnerka EY Law, Liderka Zespołu Prawa Własności Intelektualnej, Technologii i Danych Osobowych. (km)
Jak AI wpłynie na branżę komunikacji marketingowej? Zobacz wideorelację z Kongresu Wiedzy PRoto, który dotyczył właśnie tego tematu:
Zapraszamy także do obejrzenia części merytorycznej wydarzenia. Wideo z wystąpień prelegentów i paneli dyskusyjnych znajdziesz tutaj.
>>> A w tym roku kongres poświęcimy budowaniu rozpoznawalności marki, która wspiera sprzedaż. Bądź z nami już 8 października!
O badaniu:
Badanie „AI Pulse” przeprowadziło EY na grupie 975 respondentów w marcu i kwietniu 2025 roku


