Sztuczna inteligencja potrafi być pomocnym narzędziem, ale bywa też niebezpieczna. AI „halucynuje” – wymyśla przepisy, sprawy i fakty, których nie ma. W świecie prawa takie błędy mogą oznaczać poważne ryzyka i konsekwencje dla startupów oraz przedsiębiorców. O tym, jak działa AI i dlaczego trzeba podchodzić do niej z ostrożnością, z Przemysławem Ostrowskim, adwokatem KPTS rozmawia Aleksandra Marciniak.
AI kłamie?! Ryzyka prawne dla startupów
Dlaczego AI często kłamie, wymyśla rzeczy, których nie ma? Wymyśla nawet paragrafy i sprawy!
AI szturmem zdobywa naszą rzeczywistość, co dla świata prawniczego często jest porównywalne z chodzeniem po polu minowym (śmiech).
To oznacza tylko tyle, że sztuczna inteligencja halucynuje, czyli działa na zasadzie predykcji – przewiduje, jakie powinno być kolejne słowo czy zdanie w kontekście pytania i tego, co znajduje się w Internecie, w źródłach, z których korzysta.
To dotyczy ChatGPT, jak i innych narzędzi, np. Perplexity. W prawie takie „kłamstwa” AI są wyjątkowo groźne, bo mogą prowadzić do błędnych interpretacji przepisów.
Czyli można powiedzieć, że AI działa na zasadzie prawdopodobieństwa?
Tak, dlatego, że celem tych dużych modeli językowych jest danie nam odpowiedzi i dlatego AI za wszelką cenę będzie dążyć do tego celu. Nie przyzna, że czegoś nie wie, ale da nam odpowiedź, nawet błędną.
Dopiero jak my zauważymy błąd, AI odpisuje często: „Tak, masz rację” (śmiech).
Dokładnie. Ma olbrzymi problem z napisaniem, że czegoś nie wie albo że czegoś nie ma, albo że jakiś – szczególnie w prawie – przepis prawa nie został omówiony, zinterpretowany w tym kontekście, w którym zostało zadane pytanie.
A że AI chce dać odpowiedź i przewiduje kolejne słowa, które powinny się pojawić w tej odpowiedzi, żeby była satysfakcjonująca, to w przypadku braku źródeł zaczyna je wymyślać.
To jest szczególnie dotkliwe, dlatego że przepisy prawa podlegają interpretacji i podlegają wykładni. Tych rodzajów wykładni jest kilka. Jeden przepis prawa może być przedmiotem doktoratu czy pracy magisterskiej. Może być interpretowany w różne sposoby.
Regulacje prawne wobec tworów sztucznej inteligencji
Czy prawo przewiduje regulacje w zakresie dokumentów pisanych fałszywie przez AI?
Jeśli mamy dokumenty napisane przez AI, na przykład przez ChatGPT, użytkownik często nie wie, czy wygenerowany tekst jest prawdziwy, a błędy mogą być katastrofalne.
I co wtedy?
W przypadku umów ryzyko spada na osobę, która je podpisała. W Polsce obowiązuje zasada swobody zawierania umów – można zawrzeć nawet dokument skrajnie niekorzystny. Później będzie on podlegał interpretacji sądu, który może odczytać jego sens na wiele sposobów.
Podobnie w biznesie i startupach. Korzystanie z AI do tworzenia analiz, komunikatów czy innych treści wiąże się z ryzykiem, że pojawią się błędy albo odwołania do przepisów i wyroków sądowych, które w rzeczywistości nie istnieją. Takie działanie może być niezgodne z prawem.
W sprawach spornych albo przed urzędami „halucynacje” AI są szczególnie groźne. Sztuczna inteligencja, chcąc dać satysfakcjonującą odpowiedź, potrafi wymyślić przepisy czy wyroki. Tymczasem w Polsce wyroki nie tworzą prawa – można się na nie powołać jedynie wtedy, gdy stan faktyczny jest bardzo podobny.
Dla AI brak tego kontekstu nie stanowi problemu – i w tym tkwi największe zagrożenie.
Więcej o innowacjach AI w branży prawniczej przeczytasz w artykule Asystent AI dla prawników
Odpowiedzialność prawna za treści generowane przez AI
AI generuje błędy, a kto za nie odpowiada?
Odpowiada zawsze ten, kto korzysta z AI. W polskim systemie prawnym obowiązuje zasada, że nieznajomość prawa szkodzi, więc nie można się tłumaczyć brakiem wiedzy. To nigdy nie będzie odpowiedzialność sztucznej inteligencji, ale człowieka.
Każdy przedsiębiorca musi mieć świadomość, że bezkrytyczne zaufanie AI wiąże się z ogromnym ryzykiem. Dlatego warto korzystać z tych narzędzi, ale podchodzić do ich wyników z dużą ostrożnością.
Miałem wielu beneficjentów Fundacji „Twój StartUp”, którzy porównywali odpowiedzi ChatGPT z moimi opiniami. I właśnie wtedy okazywało się, że AI często brakowało kontekstu albo istotnych szczegółów.
Prawo autorskie a AI – co muszą wiedzieć przedsiębiorcy?
Czy materiały generowane przez AI zawsze można bezpiecznie wykorzystać komercyjnie?
Nie. Trzeba dokładnie czytać regulaminy. W niektórych popularnych bazach, nie wszystkie obrazy mają licencję do użytku komercyjnego. Dlatego bezpieczniej jest korzystać z serwisów, gdzie prawa autorskie są jasno uregulowane i można legalnie używać wygenerowanych obrazów.
Problem pojawia się w przypadku modeli, które pobierają lub przerabiają zdjęcia znalezione w Internecie. Mogą one naruszać prawa autorskie, a także dobra osobiste – np. poprzez kompromitujące lub zniesławiające przeróbki wizerunku znanych osób.
Rozpowszechnianie takich treści może narazić nas na odpowiedzialność cywilną, stanowić czyn nieuczciwej konkurencji, a nawet wiązać się z odpowiedzialnością karną.
Donald Trump sobie poradzi a co z Twoim startupem?
Czy wykorzystanie wizerunku znanych osób w treściach generowanych przez AI jest ryzykowne?
Tak. Przykładowo – jeżeli ktoś przerobi zdjęcie Donalda Trumpa i wrzuci je jako mem w social media, trudno jednoznacznie ocenić, czy to obraza urzędu prezydenta USA, czy tylko żartobliwe odniesienie do osoby publicznej. Prawo zakłada, że politycy czy celebryci muszą mieć „twardszą skórę” i godzić się na większą krytykę.
Znacznie groźniejsze są sytuacje, gdy AI służy do przerabiania zdjęć osób prywatnych. Kompromitujące fotomontaże mogą naruszać dobra osobiste Wystarczy, że zobaczy je kilka osób z bliskiego otoczenia – to już może stanowić naruszenie prawa.
Podobne mechanizmy pojawiają się w biznesie. Startupy bywają atakowane przez fałszywe komentarze, zmanipulowane materiały czy nieuczciwą reklamę.
Startupy mogą chronić się przed fałszywymi komentarzami i manipulacjami AI dzięki ustawie o zwalczaniu nieuczciwej konkurencji, która daje szeroki katalog narzędzi prawnych – od przeprosin po odszkodowania finansowe.
W takich sytuacjach beneficjentom Fundacji „Twój StartUp” i innym przedsiębiorcom pomagają prawnicy z Kancelarii KPTS.
Sztuczna inteligencja jako wsparcie w biznesie
Po co nam sztuczna inteligencja w pracy i biznesie?
To narzędzie, które działa podobnie jak komputer – nie zastąpi człowieka, ale może ułatwić codzienną pracę. AI świetnie sprawdza się w poprawianiu, skracaniu czy rozwijaniu tekstów, które sami stworzymy. Dzięki temu stają się one prostsze i bardziej czytelne, także dla osób spoza branży prawniczej czy biznesowej.
Sztuczna inteligencja nie wykona za nas całej pracy, ale może ją usprawnić. Warto traktować ją jako pomocnika, który wskazuje, czy tekst jest zrozumiały i jak można go ulepszyć.
Przyszłość technologii a potrzeba kontaktu z człowiekiem
Postęp technologiczny przyspiesza, w Chinach i Japonii mamy już coraz bardziej rozwinięte roboty humanoidalne. Jaka przyszłość z AI nas czeka?
Jestem pewien, że pojawią się alternatywy i istnieje ryzyko, że ludzie będą zaspokajać swoje potrzeby społeczne kontaktu z drugim człowiekiem za pomocą chatbotów. Jeżeli dołączymy do tego inne zmysły, pochodzące od robotów humanoidalnych przypominających człowieka, powstaje bardzo dystopijny obraz.
Czy kontakt z drugim człowiekiem będzie jedyną weryfikacją i coraz większą potrzebą?
Kontakt z drugim człowiekiem jest dla nas ratunkiem, natomiast nie wiem, czy z niego skorzystamy. Zazwyczaj rozsądnie zachowujemy się dopiero wtedy, gdy wszystko inne zawiedzie.
Dopiero wtedy? To może już teraz człowiek powinien być bardziej ludzki, by AI i roboty humanoidalne nie prześcignęły nas w człowieczeństwie, bo przecież na razie nie mają uczuć.
Na razie nie mają (śmiech). Nie mają uczuć ani krytycznego myślenia – to już ustaliliśmy.
Czyli potrzeba kontaktu z drugim człowiekiem będzie rosnąć?
Myślę, że tak. Wybitnie potrzebujemy tego kontaktu, szczególnie w czasach popandemicznych i komunikacji zdalnej. Natomiast czy tę potrzebę rzeczywiście zaspokoimy przez prawdziwe relacje, czy zastąpimy ją rozwiązaniami technologicznymi – to już jest w naszych rękach.
Temat potrzeby kontaktu z człowiekiem w kontekście AI poruszałam także w felietonie: AI – cień geniuszu czy iskra chaosu?
