W 2026 r. tworzenie sklepu internetowego z AI nie polega już tylko na „włączaniu” chatbotów czy algorytmów rekomendacji. Nowe prawo, w tym AI Act, wprowadza konkretne obowiązki dla e‑commerce, które trzeba rozumieć i zaimplementować, zanim zaczną nasz sklep „robić marketing” za pomocą sztucznej inteligencji. Artykuł ekspercki, AI Act w e-commerce: Przewodnik po nowych obowiązkach – świetnie wyjaśnia, co naprawdę zmienia ten akt prawnego w polskim e‑commerce i jak szybko nadrobić ewentualne zaległości, by obsługiwanie klientów online było zgodne z prawem.
Co zmienia AI Act dla e‑commerce?
AI Act nie jest rewolucją, ale doprecyzowaniem obowiązków, które wielu sklepów już zna z RODO i zasad marketingu rzetelnego. Najważniejsze zmiany dotyczą m.in. obowiązku informowania użytkowników, że rozmawiają z chatbotem, oznaczania deepfake’ów oraz obowiązku informowania o treściach generowanych przez AI w sferze informacyjnej (np. w blogu, ale nie w opisach produktu). W praktyce oznacza to, że sklep internetowy nie może „ukrywać” algorytmu za slowem „pomocnik”, ani prezentować wirtualnych modeli, które mogą być mylone z prawdziwymi osobami, bez odpowiedniej deklaracji. UOKiK od lat już wymagał od chatbotów takich samych standardów rzetelności jak od obsługi „przez człowieka”, ale AI Act formalnie to konkretyzuje.
Dowiedz się więcej: AI Act w e-commerce
Co nie jest nowe – a co warto zaktualizować?
Wiele zamiarów, które medialnie „wiadomości” prezentują jako nowe obowiązki, wynika z przepisów obowiązujących od lat – głównie z RODO i ustaw o prawach konsumenta. Do tej grupy należą m.in. informowanie o profilowaniu, możliwość żądania interwencji człowieka przy decyzjach automatycznych oraz ogólne zasady nieuczciwego marketingu. Ciekawie artykuł wskazuje, że AI Act nie wymaga automatycznych zmian w regulaminie sklepu ani polityce prywatności, choć warto je sprawdzić pod kątem RODO i innych ustaw, bo AI Act skupia się na informacjach przekazywanych *w momencie interakcji* (np. w oknie chatbota), a nie w dokumentach prawniczych.
Chatbot, AI i „deepfake produktu”
Dla e‑commerce szczególnie istotna jest sekcja o chatbotach i algorytmach doradcy. W uproszczeniu: jeśli chatbot tylko doradza, odpowiada na pytania i nie podejmuje wiążących decyzji (np. nie blokuje kredytu ani nie odmawia zamównienia), to wystarczy jasna informacja „To jest AI” oraz możliwość kontaktu z człowiekiem. Jeśli natomiast chatbot samodzielnie podejmuje decyzje wpływające na prawa klienta, e‑commerce musi zapewnić możliwość interwencji operatora – a to wynika z RODO, nie z samych AI Act. Warto też zwrócić uwagę na grafikę produktową wygenerowaną przez AI. Jej samo „wygenerowanie” nie oznacza automatycznie, że staje się deepfake’em – kluczowy jest efekt wrażenia odbiorcy. Jeśli grafika wiernie oddaje produkt, to raczej nie jest deepfake, ale jeśli AI „upiększa” produkt powyżej realiów, to ryzyko nie leży w AI Act, tylko w ustawie o prawach konsumenta i nieuczciwych praktykach rynkowych.
Jakie są konsekwencje niewykonania obowiązków?
AI Act przewiduje wysokie kary za naruszenia, przynajmniej teoretycznie – w praktyce, jednak, do nadzoru nad tym, jak marki korzystają z AI w handlu, są przygotowane m.in. organy takie jak Urząd Ochrony Konkurencji i Konsumentów. Dlatego przedsiębiorcy, którzy korzystają z chatbotów, generatorów opisów, personalizacji czy deepfake’ów, powinni zastanowić się, czy ich obecne rozwiązania są zgodne z nowymi wymaganiami – zarówno prawnej, jak i reputacyjnej strony.
Kluczowe wskazówki dla właścicieli e‑commerce
- sprawdź, kto jest „dostawcą” i „użytkownikiem” AI (np. własny chatbot vs narzędzie SaaS),
- dodaj jasną informację o AI w interfejsie („Rozmawiasz z AI”),
- zadeklaruj, kiedy deepfake naprawdę występuje (np. wirtualna modelka),
- przypomnij, że kanał kontaktu z człowiekiem (mail, telefon) jest obowiązkowy niezależnie od AI Act.
Dla właścicieli sklepów internetowych, którzy korzystają z Tpay i innych narzędzi zwiększających sprzedaż, to dobra okazja, by zaktualizować procesy tak, by AI działała wydajnie, ale nie naruszała prawa ani zaufania klienta.