Status prawny AI

Odpowiedzialność, prawa i granice technologii z dr Ewą Milczarek

Posted by wojtek on January 27, 2026 in Rozmowy · 46 mins read

Opis

W dzisiejszym odcinku rozmawiamy o statusie prawnym sztucznej inteligencji oraz o tym, jak prawo próbuje nadążyć za technologią, która rozwija się szybciej niż jakiekolwiek regulacje. Moim gościem jest Ewa Milczarek, doktor nauk prawnych, adiunkt na Uniwersytet Szczeciński, specjalizująca się w prawie nowych technologii, ochronie danych osobowych i prawach człowieka w środowisku cyfrowym.

Osoby

Transkrypcja

Transkrypcja jest generowana automatycznie

Ewa Milczarek (00:05) Sztuczna inteligencja nas okłamuje, a jeszcze wiemy, że okłamuje nas wtedy, kiedy czuje presję. Więcej presji na niej wywołamy, tym bardziej ona jest skłodna do tego, żeby nas zadowolić i żeby tak skompilować swoją wypowiedź, którą nam daje, by ona pasowała do tego, co chcemy usłyszeć.

Wojciech Nowicki (00:44) Zapraszam na 22 odcinek podcastu hospoda.tech. Moim gościem będzie dr Ewa Milczarek, adiunkt na Wydziale Prawa i Administracji Uniwersytetu Szczecińskiego. Ewa zajmuje się prawem nowych technologii, ochroną prywatności i danych osobowych oraz prawami człowieka w środowisku cyfrowym. swoich badaniach i pracy dydaktycznej analizuje

jak prawo reaguje na rozwój internetu, platform cyfrowych i automatyzacji oraz gdzie regulacje nie nadążają za rzeczywistością. Z Ewą porozmawiamy, a jakże, o sztucznej inteligencji. Nasza rozmowa dotyczy statusu prawnego sztucznej inteligencji, jej wpływu na prawa człowieka oraz wyzwań, jakie stawia przed systemem prawnym. Ewa omawia kwestie związane z inteligencją, samoświadomością AI,

cyborgami oraz odpowiedzialnością za decyzje podejmowane przez Sztucną Inteligencję. Wskazuje na potrzebę regulacji prawnych oraz edukacji w zakresie korzystania z AI w zawodach prawniczych. Transkrypcje, linki i wszelkie materiały do tego odcinka znajdziecie oczywiście na hospoda.tech.pl. Zachęcam do subskrybowania podcastu, dzięki temu nie przegapisz kolejnego odcinka. A teraz już zapraszam na dzisiaj i życzę miłego słuchania.

Wojciech Nowicki (02:07) Cześć, Ewa.

Ewa Milczarek (02:08) Cześć, witam serdecznie.

Wojciech Nowicki (02:10) A to tak tradycyjna na początek, jeśli mogłabyś powiedzieć kilka słów więcej o sobie dla ludzi, którzy jeszcze cię nie znają.

Ewa Milczarek (02:19) Nazywam się Ewa Minczarek, jestem doktorem Nauk Prawnych i pracuję na Wydziale Prawa i Administracji Uniwersytetu Szczecińskiego. Mają obszarem badań jest wpływ nowych technologii na prawa człowieka, to jest jak one rezonują z tymi tradycyjnymi prawami człowieka i czy funkcjonować będą dokładnie tak samo w świecie offline jak online, czy też innym.

Wojciech Nowicki (02:41) No właśnie i stąd nasze dzisiejsze spotkanie i temat do rozmowy. Dlaczego do tematu statusu prawnego AI wraca się dziś częściej niż powiedzmy sobie kilka, kilkanaście lat temu.

Ewa Milczarek (02:57) Rzeczywiście jest tak, że ten temat statusu prawnego sztucznej inteligencji pojawiał nam się i w rozmowach prawnych, także w jakimś dyskursie popularnonaukowym sztuki już od jakiegoś czasu, gdyż była to dość fascynująca idea, że może się pojawić jakaś istota, która będzie quasi człowiekiem, która będzie do nas bardzo podobna. Wszyscy znamy Blaytranera.

czy Odyseje Kosmiczne 2001, w którym ten temat zaczął nam się pojawiać i takie rozróżnienie pomiędzy rzeczywistym człowiekiem i tym syntetycznym. Temat ten teraz powrócił, gdy mówimy o sztucznej inteligencji, generatywnej sztucznej inteligencji, z której wszyscy zaczęliśmy powszechnie korzystać i która w rozmowie wydaje nam się coraz bardziej ludzka.

coraz więcej osób nawet wskazuje, że nawiązuje relacje emocjonalne ze sztuczną inteligencją. Także zaczęliśmy się zastanawiać, czy powstanie moment, w którym będziemy mogli uznać sztuczną inteligencję za tak rozwiniętą, że będą jej przysługiwać prawa i obowiązki.

Wojciech Nowicki (04:08) No właśnie temat tego czy AI, znaczy AI nie jest podmiotem prawnym jeszcze, ale co tak naprawdę musiałoby się zdarzyć, żeby ono mogło zostać zakwalifikowane jako podmiot prawny.

Ewa Milczarek (04:23) Nie ma tutaj jednoznacznej definicji i określenia w dyskursie prawnym mówiącym o tym, jakie warunki musiałaby spełnić sztuczna inteligencja, by móc ją zakwalifikować jako człowieka. Ja tutaj w swoich badaniach posiłkowałam się takimi elementami, które mogłyby nas naprowadzić na to, kiedy możemy mówić o człowieku. Czyli najpierw musielibyśmy określić, czym jest życie. tutaj możemy się…

posłużyć tą definicją NASA, która mówi nam, to jest system chemiczny, biologiczny, który jest samowystarczalny. Bo komputery nie kojarzą nam się z systemem biologicznym, ale wiemy o tym, że tego typu rozwiązania też są opracowywane i też funkcjonują w oparciu nie tylko o ten komputer, który tradycyjnie rozumiemy, ale różnego rodzaju inne i chemiczne, i biologiczne rozwiązania.

Wojciech Nowicki (05:00) To właśnie.

Ewa Milczarek (05:17) Więc tutaj możemy mówić wyłącznie o życiu, które zakwalifikujemy jako życie. Nie każdy życie wiąże się z równoznaczną ochroną, ze względu na to, że mamy również zwierzęta, które również uznajemy za kategorię żyjącą, a stopień ochrony przynależnych zwierzęciom jest różny zależności od tego, jakim zwierzęciem mamy do czynienia. Różnych zwierząt domowych, innych hodowlanych, innych owadów, które przecież w żaden sposób nie chronimy.

Kolejnym elementem, który moglibyśmy wymienić jest tzw. inteligencja, bo przecież mamy tą naszą wyższość, którą rozumiemy poprzez inteligencję, poprzez nawiązywanie kontaktów społecznych. I tutaj ciekawym rozwiązaniem, które już powstało 100 lat temu, był tzw. testuringa, w którym rozmówca, rozmawiając z maszyną, ze sztuczną inteligencją,

musiał odpowiedzieć, czy teraz rozmawia z człowiekiem, czy też nie. Te testy Turinda od jakiegoś czasu są przez sztuczną inteligencję zdawane, to znaczy ciężko nam jest odróżnić, czy rozmawiamy ze sztuczną inteligencją, czy z człowiekiem. No i teraz pytanie, skoro nie widać tej różnicy, to czy ona będzie nam występować w kategorii prawnej? Nawiązujemy relację przecież nie tylko

z innymi ludźmi, ale nawiązujemy relację też ze zwierzętami. Nie oznacza, że są one kategorią podmiotów prawa. I tutaj ja akurat skorzystałam z tego skoku ontologicznego pomiędzy zwierzęciem a człowiekiem, to znaczy w którym momencie my się zakwalifikowaliśmy jako człowiek, czyli posiadanie tej…

tej godności, która uprawnia nas do posiadania pozostałych praw i obowiązków. To również ten skok jest umowny. To już będzie ten element, którym my będziemy sami decydować, czy ta istota powinna i przysługiwać prawa, m.in. prawo do życia jako to prawo podstawowe. tu tym elementem, który można wymienić są emocje i przede wszystkim strach.

które wydają się takie już pokazujące, że skoro coś żyje, jest inteligentne, boi się o swoje istnienie, to znaczy, że już powinniśmy w jakiś sposób to chronić. Mamy pewne doświadczenia, które były realizowane na świecie, w którym m.in. sztuczna inteligencja starała się tak zmienić swój sposób postępowania, żeby nie można było jej wyłączyć.

Jednak dalej było to robione przez jakieś sztuczne środowisko, którym on miał odpowiednie komendy. To nie było zachowanie wewnętrzne tej sztucznej inteligencji, że ona się próbowała chronić, tylko ona zaistniała w jakimś scenariuszu, który został wgrany do człowieka. Niemniej wiemy, że jest ona zdolna do tego, żeby w taki sposób móc się chronić.

Wojciech Nowicki (08:23) Znaczy, jest to szalenie trudne zagadnienie, bo ja na patrzę też już od wielu lat ze strony technicznej. Koniec końców nasz mózg to też tak naprawdę jest bardzo zaawansowany komputer, tylko zachodzą tam chemiczne reakcje elektryczne, nie tak jak komputerze. Nie da się nas też w tak prosty sposób zaprogramować. Natomiast…

poruszyłaś rzeczywiście ten temat tego tego strachu przed skasowaniem. Jeszcze tutaj nie wiem nie pojawiło się zagadnienie samoświadomość czy samoświadomość tego, że ja jestem, bo też prawo do życia. W przypadku sztucznej inteligencji raczej mówimy o prawie do egzystowania, do istnienia, nie do życia. Tutaj ten katalog słów definicji naprawdę będzie musiał się chyba poszerzyć.

Ewa Milczarek (09:18) Bardzo,

bardzo. na pewno będzie jakiś rodzaj ochrony. To prawo do życia, którym ja tutaj wspomniałam, bardziej był na charakterze takiego… zagadki logicznej, które moglibyśmy sobie przygotować. To znaczy, jakie warunki zostaną spełnione, żebyśmy mogli to zakwalifikować. Obecnie w ogóle o tym nie mówimy. Mamy w ogóle problem z zakwalifikowaniem tej sztucznej inteligencji. Ta samo świadomość…

w którym ja też wiążę z tymi emocjami, to znaczy wiem, że istnieje, boję się o swoje istnienie, jest również bardzo ważnym elementem, który dajemy w tym całym worku przesłanych, do których możemy sięgać w przypadku jakiejkolwiek kwalifikacji sztucznej inteligencji. I to też jest zagadnienie bardzo trudne, bo ciężko powiedzieć, kiedy ktoś jest samoświadomy.

Ale też tutaj ciekawą rzecz poruszyłeś, bo dużo osób wskazuje na to, że nie możemy mówić o jakiejkolwiek podmiotowości ze względu na to, że my działamy mózgiem, a sztuczna inteligencja jakimś algorytmem, że jest to zachowanie w jakiś sposób warunkowe. Ale tak jak powiedziałeś słusznie, że mózg i komputer w swojej istocie do tego samego mianownika jesteśmy w stanie ściągnąć, że one w swojej funkcji, swojego działania

są bardzo podobne, stąd tutaj nie szukałabym możliwości rozróżnienia, bardziej w tej samozsądności swojego istnienia. Przerażające tak naprawdę, że może niedługo będziemy mieli do czynienia z istotami, które będą do nas bardzo podobne i to będzie taki element, który ciężko będzie chyba

wprowadzić bez problemów do systemu prawnego. Mówimy o całych problemach związanych z dyskryminacją, nierównym traktowaniem, też jakkolwiek rywalizacją. Choć mówimy też o trzeciej drodze, to jest integracja ze sztuczną inteligencją. I to też jest już przecież w fazie badań, w fazie realizacji między innymi Neuralink, Elona Maska. I wskazują to badacze jako kolejny emend.

element naszej ewolucji. Czyli nie my kontra sztuczna inteligencja, tylko połączenie się i współdziałanie razem, co też jest zupełnie nowym systemem. tych cyborgach przecież jako kategorii prawnej też długo rozmawiamy, bo tak kwalifikacja też jest ciężka do ocen.

Wojciech Nowicki (12:06) Znaczy bo tu poruszyłaś wcześniej temat Blade Runnera to mi się też od razu inny film przyszedł mi na myśl. Transcendencja czyli przeniesienie właśnie naszej świadomości do maszyny. bo tak naprawdę może warto wspomnieć bo jednak jest to podcast na styku technologii i jakiegoś takiego zarządzania więc nie wszyscy mogą wiedzieć ale jednak.

Oryginalnie pojęcie sztucznej inteligencji zostało tak określone, ponieważ to były próby naśladownictwa właśnie działania ludzkiego mózgu. Tak jak mówisz, jesteśmy podobni. My mamy sieć neuronową, my mówimy o sztucznej sieci neuronowej w przypadku sztucznej inteligencji, która się generalnie już tak upraszczając sama uczy. My jej nie programujemy w taki tradycyjny sposób. No i teraz jest pytanie, mamy taki case jak w transcendencji, czyli mamy

wystarczająco mocny komputer, żeby przenieść ludzki mózg do tego komputera. Czyli tutaj zakładam, że prawo być może, no teraz już taka fantastyka naukowa nam wchodzi, ale ta osoba byłaby chroniona na tej maszynie. nie to teraz pytań. Pytanie. Tak.

Ewa Milczarek (13:15) No właśnie, pytanie, bo

mamy trzy sytuacje tak naprawdę z cyborgami. Teraz w ogóle pojawiło się w przestrzeni prawnej mówienie o cyborgach niskiego rzędu, że my wszyscy jesteśmy tymi cyborgami, bo jesteśmy cały czas połączeni z tą technologią, innymi przez smartfony. Ale ta integracja też nam postępuje. I mamy do tak naprawdę trzy sytuacje. Pierwsza sytuacja to jest momencie, w którym mamy

człowieka, któremu wymieniamy elementy ciała, on dalej jako istota tożsamość mu pozostaje, ale na przykład ma sztuczne serce, sztuczne ręce, sztuczne nogi, sztuczne zastawki i ten proces nam postępuje. Tu na razie, bo ta sytuacja nam rzeczywiście w systemie prawnym występuje i nie zmienia to kwalifikacji, kwalifikacji jako podmiotu prawa, jako istoty i ta ciągłość nam występuje.

Możemy mieć do czynienia także z drugą sytuacją. To jest, gdzie mamy ten umysł człowieka, jego świadomość i on zostaje nam włożony do komputera, humanoidu nawet i funkcjonuje. Czy jest to ta sama osoba, czy ta tożsamość związana z mózgiem i świadomością przechodzi i mówimy o ciągłości tego podmiotu, jako podmiotu prawnego również, czy też w tym momencie on staje się maszyną.

I trzecia sytuacja, o której możemy mówić, to jest ciało człowieka, którym np. doszło do uszkodzenia mózgu i my w tym momencie załączamy mu komputer do głowy i nie steruje on już sam sobie, tylko ten komputer potrzymuje funkcje życiowe i funkcjonuje ze świadomością sztucznej inteligencji. Czy wtedy, mimo zachowania powłoki ludzkiej, mamy do czynienia z człowiekiem? To są sytuacje,

te dwa ostatnie, o których już zaczynamy mówić jako możliwy problem prawny, który może nam się pojawić, którym momencie będziemy, co będzie decydowało o tym, że jesteśmy człowiekiem. Czy to, że mamy tą ludzką świadomość, czy ta ludzka powłoka i w którym momencie ten człowiek będzie nam się kończył. Nawet moment śmierci jest dyskusyjny w prawie, więc tym bardziej tutaj musielibyśmy sobie zadać pytanie.

w którym momencie będziemy klasyfikować kogoś jako osobę, a w którym momencie jako maszynę.

Wojciech Nowicki (15:48) No to ja bym tutaj dołożył jeszcze taki czwarty problem, żeby nie było już totalnie łatwo. Jeżeli ten drugi przypadek zostałby uznany jednak, że chronimy to życie, to co rzeczywiście z czymś jak trzeci przypadek, tylko nie wsadzonym w ciało, to już w ogóle komplikuje nam temat.

Ewa Milczarek (16:05) Hmm?

I wtedy mamy humanoida z sztuczną inteligencją, która nam funkcjonuje i nie widzimy różnicy pomiędzy nim a człowiekiem. Tak naprawdę.

Wojciech Nowicki (16:16) Znaczy nie,

ale jakby jeszcze w ogóle nie. Jeżeli obronimy tego humanoida ze sztuczną inteligencją w ludzkim ciele, to dlaczego nie dać prawa do życia tej inteligencji przed wsadzeniem w ciało? No to już się tak komplikuje. Dobra, to teraz może troszeczkę zejdźmy na ziemię do czasów obecnych, bo to jest wydaje mi się coś, co bardzo nas wszystkich interesuje. Jak w tej chwili w ogóle prawo patrzy na AI?

Ewa Milczarek (16:27) Dokładnie, tak.

Mhm.

Wojciech Nowicki (16:45) To

rzeczywiste, które mamy.

Ewa Milczarek (16:47) Ten temat sztucznej inteligencji bardzo mocno nam się rozwinął przez ostatnie lata i pojawiło nam się szereg problemów związanych z jego funkcjonowaniem. To, jest myślę, że dla nas najbardziej widoczne w takim codziennym funkcjonowaniu, to jest problem praw autorski. Bo dużo osób z nas i profesjonalistów wykorzystuje tą sztuczną inteligencję do swojej pracy i powstaje pytanie…

jak chronić te dzieła, które powstały nam w ramach sztucznej inteligencji. Również mamy parę dróg, których można skorzystać. Pierwsza droga taka, która też bardzo często się pojawia, że skoro to nie jest wytwór człowieka, to nie powinien podlegać ochronie praw.

ale to rodzi nam pewnego rodzaju konsekwencje i może ograniczać nam rozwój tej sztucznej inteligencji, czyli na przykład ja wykorzystując swoje prompty, stworzę jakiś materiał filmowy, który będzie zarabiał, to każdy może go kopiować, każdy może wycinać z niego fragmenty i również czerpać z niego zyski, więc z mojego punktu widzenia jest to coś nieopłacalnego. Pojawia nam się drugi nurt, mówiący o tym, że należy z tej

pracy i to już mamy w Stanach Zjednoczonych mamy pierwsze wyroki w tej sprawie. Dotyczyło to książki, której tekst napisany był przez człowieka, a ilustracje pochodziły nam ze sztucznej inteligencji. On to złożył jako całość, wydał jako książkę. Tam w przypadku praw autorskich stwierdzono, że ochronę będzie podlegał tekst. Książka jako całość, czyli układ tych ilustracji, ale już nie samo ilustracje pojedyncze.

To jest drugi nurt, czyli to oddzielenie. Kolejny nurt mówi nam o tym, że ten kto tworzy to dzieło, czyli daje odpowiednie promty, żeby otworzyć oczekiwany przez siebie efekt, powinien być również podmiotem prawa autorskiego za te dzieła stworzone przez sztuczną inteligencję. I ostatni, który wskazuje, że twórca technologii, z której korzystamy, czyli twórca na przykład czatu GPT,

powinien być podmiotem, który te prawa autorskie będzie nam trzymał dzierżu i uzyskiwał z tego dochodę.

Wojciech Nowicki (19:11) To jest potężne zagadnienie, bo o tym już też nieraz było w podcastie mówione. totalnie jak gdyby niechronienie. Te utwory jednak, jeżeli są w ogóle utworami w myśl prawa, nie są tak łatwo powtarzalne. Więc tak jak mówisz, jeżeli stworzysz jakiś film, to odtworzenie identycznie tego samego filmu. A wiemy, że często diabeł tkwi w szczegółach.

jakiś będzie bardzo trudne dla kogoś innego. Kwestia chyba tego czy użytkownik czy twórca technologii to już to wydaje mi się ale popraw nie można byłoby po prostu rozwiązać umową na korzystanie z tego narzędzia.

Ewa Milczarek (19:58) Tak,

i niektórych już zostaje to wprowadzone, których jest określone kto będzie podmiotem tego prawa autorskiego. Jednak cały czas jest to takie działanie na pograniczu tego, że brakuje nam regulacji prawnej. Ja sama stoję na stanowisku, że pozbawienie jakiejkolwiek ochrony jest absolutnie niekorzystne z punktu widzenia sektora kreatywnego i z punktu widzenia twórców, którzy nawet bardzo ciekawe, no przecież widzimy to już teraz.

tworzą filmy, które mają pewną historię, które są wytworzone zgodnie z wizją, którą miał twórca i jak najbardziej powinno to podlegać ochronie. Nie wydaje mi się, dobrym rozwiązaniem było, chociaż to jest też kwestia umowna, którą powinniśmy regulować między innymi poprzez taką debatę pomiędzy programistami, twórcami, technologii, a osobami, które je wykorzystują, bo przecież…

mamy dowolność, ta rynków będą mogli wybierać sobie tą technologię, z której chcą korzystać twórcy indywidualni, by to właśnie twórca indywidualny był tym podmiotem praw, a nie twórca samej tej sztucznej inteligencji, ponieważ jego rola była co prawda pierwotna, ale nie doprowadziła do powstania tego, nazwijmy to dzieła.

Wojciech Nowicki (21:18) OK, tak to jest zawsze trudny temat, teraz żeby znowu jeszcze utrudnić, bo chyba nie wspominałaś w o danych treningowych. Na czym to stanęło?

Ewa Milczarek (21:26) Tak,

jest też bardzo duży problem, który pojawił nam się, jest coraz częściej, bo pojawiają nam się już spory sądowe w tym zakresie, w których mamy informację, że dzieła, które były wykorzystywane, zastrzeżone jako takie, które nie będą wykorzystywane do danych trekkingowych były wykorzystywane.

I tutaj mówimy o paru kwestiach, łącznie z ochroną prywatności i z tego, że ta sztuczna inteligencja się uczy na naszych danych. Stąd teraz cały czas największe korporacje proszą nam dostęp o tych danych, wskazując właśnie, że one będą wykorzystywane jako dane treningowe, ale także ochronę praw autorskich twórców tych dzieł pierwotnych, które teraz wykorzystywane są do sztucznej inteligencji, która analizuje je i na tej podstawie tworzy nowe

nowe utwory, jednak bazując na tych poprzednich. Więc jest to dalej kwestia bardzo problematyczna, również problematyczna z punktu widzenia gospodarki i konkurencji gospodarek, między innymi europejskiej, amerykańskiej i chińskiej, w której wskazywano, że zabronienie w Europie korzystania z danych treningowych, tych danych, które są dostępne, może spowodować

utraty konkurencyjności pomiędzy naszym rozwojem sztucznej inteligencji, które będzie kluczowe tak naprawdę dla przyszłości gospodarek, a np. Chinami, Stanami Zjednoczonymi, które tych restrykcyjnych regulacji mieć nie będą. Zresztą od dłuższego czasu wskazuje się, że ta restrykcyjność prawa unijnego doprowadza do spadku innowacyjności w Unii Europejskiej.

raport Komisji Europejskiej, która wskazuje to jako jeden z alarmujących problemów.

Wojciech Nowicki (23:22) No dobra, teraz tak, temat jest szeroki i tutaj odpowiedzieć na wszelkie pytania się nie da, do tej pory, bo to też zawsze staram się w dyskusjach gdzieś tam dojść do tego i zbierać opinie na ten temat. Tak naprawdę takich kreatywnych geniuszy, którzy wymyślili jakiś nowy nurt w sztuce, to nie mieliśmy za wiele w historii. Większość artystów, malarzy czy to muzyków, inaczej.

Muzycy no to jeszcze często grają coś, ale jak ktoś maluje to odtwarza jakiś styl, już nie mówimy, że robi reprodukcję, ale maluje w jakimś stylu, dodaje coś delikatnie od siebie, ale jest to swego rodzaju kompilacja tego, co on widział. Jeżeli przyjmiemy na przykładże zdjęcia, jeżeli były udostępnione w legalnej formie, a jeżeli mamy zdjęcia na jakichś zabytków, no to w internecie legalnie tych zdjęć znajdziemy bardzo dużo na licencji Creative Commons i tak dalej.

to teraz czy AI znowu odtwarzając jakiś styl i znane tutaj sobie miejsca ze zdjęć, które zdobyło legalnie, też wiesz udostępnianie danych. Jeżeli udostępniamy cokolwiek publicznie, jeżeli ktoś ma Facebooka albo Instagrama, wrzuca tam dużo zdjęć i nie jest to żaden profil prywatny, to są to dane udostępnione całemu światu.

Ewa Milczarek (24:45) te zagrożenie, których mówimy, to bardziej wskazywane jest przez twórców, którzy boją się, że AI może pozbawić ich pracę. to dlatego między innymi są te protesty w Stanach Zjednoczonych, mówiących o zakaźnie wykorzystywania AI w tym sektorze kreatywnym, firmowym, właśnie ze względu na strach. I dlatego autorzy wskazują to jako problem, bo rzeczywiście jest tak, że przecież cała nasza kultura polega na…

replikowaniu pewnych wzorców, standardów od setek lat, które nam pojawiają się w historii zresztą, to prawo autorskie też nie jest wieczne, on jest ograniczone czasowo, tak żeby po upływie czasu można było z niego swobodnie korzystać bez jakichkolwiek opłat czy pozwoleń. Ja jestem w ogóle zwolenniczką otwartej kultury, dostępnej kultury.

ponieważ nawet teraz jak popatrzymy sobie na system wypłat dla twórców, to on systematycznie nam się zmniejsza, a coraz więcej zarabiają te duże korporacje, które są posiadaczami praw autorskich. Więc cały ten system wcale twórcy do tej pory nie chronią, chroni korporacje posiadaczy praw, które mają również środki do tego, żeby tę ochronę wymuszać.

więc ma szację. Kultura jest replikowalna. My sami twórcy uczymy się na innych dziełach, nawet pisząc artykuły naukowe przecież, czytam inne artykuły, patrzę na te elementy, które wydają mi się interesujące, ciekawe, które sama bym chciała w swoim warsztacie wykorzystywać. Więc jest to normalna czynność, którą wykonujemy zarówno my osoby fizyczne, jak i sztuczna inteligencja.

Wojciech Nowicki (26:36) Dokładnie więc to jest taki niejasny dosyć temat tutaj z tym. Ja też wiem skąd to się bierze bo to już nie jest to że AI rzeczywiście zabiera zlecenia. Nawet w poprzednim odcinku jak z chłopakami miałem debatę na zamknięcie 2025 roku to jasno sobie podawaliśmy że mamy przykłady z pierwszej ręki praktycznie że firmy no tracą zlecenia przez AI.

Natomiast te efekty, które to AI produkuje, jeżeli się przyłożymy są bardzo dobre. i tu. No tylko to jest pytanie. Tu znowu wracamy do tego, co jest troszeczkę gdzieś tam w debatach AI wałkowane, że to nie AI zabierze ci pracę, tylko osoba, która lepiej z tego AI skorzysta. Więc jeżeli jesteś agencją, jejku już się bym przyjęzyczył, jeżeli jesteś agencją kreatywną, to zatrudnij agenta AI i zacznij po prostu za…

No niestety mniejsze stawki ale takie odpowiadające teraz nakładowi twojej pracy produkować ten content bo jest dalej wiele firm które po prostu wolałyby dostać gotowe rozwiązanie a szukają to raczej z powodu cięcia kosztów. Dobra teraz kolejny taki też mnie zawsze interesujący temat i tutaj jak gdyby ja opieram dużo swojego podejścia do AI o to odpowiedzialność za decyzje AI.

I tu praktycznie nie będę nic więcej mówił, tylko zostawię cię z tym.

Ewa Milczarek (28:07) To jest też bardzo ważny temat, pojawia się myślę, że wszędzie związany właśnie z tym, z tego AI korzystamy. Często korzystamy niestety bez weryfikacji. Obecnie ze względu na to, że AI nie jest podmiotem prawnym, on sam jako takie odpowiedzialności nie ponosi. Twórca też…

tej technologii, również za nawet błędy, które się pojawiają, może co najwyżej przeprosić, ale jesteśmy zobowiązani do weryfikacji. Ostatnio mieliśmy słynny przykład firmy Deloitte, która dała raport, który zawierał halucynację AI, w którym były niezweryfikowane dane, w którym ta sztuczna inteligencja kłamała.

Jakież to ludzkie byśmy powiedzieli, że właśnie sztuczna inteligencja nas okłamuje, a jeszcze wiemy, że okłamuje nas wtedy, kiedy czuje presję. Więcej presji na niej wywołamy, tym bardziej ona jest skłodna do tego, żeby nas zadowolić i żeby tak skompilować swoją wypowiedź, którą nam daje, by ona pasowała do tego, co chcemy usłyszeć. Więc na razie odpowiedzialność za to, co nam AI da, ponosimy my, które z tych danych korzystamy.

że nie zweryfikowaliśmy, czy mamy dostrzeńnia z halucynacją, czy wnioski, które AI wyciągnęła są zgodne z prawdą, a też robiliśmy tego typu symulacje, między innymi na danych z budżetu różnych miejscowości, których AI w zależności od tego, jaki sposób było wpisane do niej polecenie, w taki sposób dawała różne rekomendacje, które czasami były…

pozytywne lub negatywne w zależności od tego jakie było polecenie. I pojawia nam się tutaj też kwestia tego procesu decyzyjnego. W niektórych krajach wyroki sądowe nie są podejmowane przez sztuczną inteligencję, ale są podejmowane przez algorytm. I ten algorytm decyduje o tym czy ktoś był winien, niewinien, ale też w wysokości kar. Nie mamy dostępu do danych o tych algorytmach, w jaki sposób one funkcjonują.

i sąd nie udostępnił tych danych, ale tak samo nie wiemy, w jaki sposób wygląda ten proces decyzyjny sztucznej inteligencji, która wnioskuje. Ona raz, że mamy do czynienia z halucynacjami sztucznej inteligencji, ale wiemy o tym, że w niektórych krajach niektórych kwestii nie będzie nam poruszać. Zapytamy sztuczną inteligencję w Chinach o kwestie, które są wrażliwe polityczne dla tego kraju i odpowiedzi nie utrzymamy.

Więc ona jednak jakieś ograniczenia może mieć nakładane i kierować nas ku odpowiedziom, którym na przykład zależy twórcy technologii. Tym bardziej jest większa nasza odpowiedzialność i konieczność nauczenia tego młodego pokolenia, które już nie zadaje pytania do Google’a, ale zadaje pytania do sztucznej inteligencji o to, żeby to weryfikowali. My to widzimy na studentach, którzy przychodzą na zajęcia i mamy…

kazusy. Kazusy to jest problem prawny z stanu faktycznego, którym należy dać rozwiązanie. Studenci myśleli, że się wycwanią, wrzucali to do sztucznej inteligencji, ona dawała przepiękne odpowiedzi, które nie miały absolutnie nic wspólnego z polskim systemem prawnym, ani żadnym systemem prawnym, po prostu brzmiały bardzo dobrze. I byli zaskoczeni, że ich odpowiedzi były oceniane negatywnie. Bo dla nich było to coś dziwnego, że ta sztuczna inteligencja mogła się mylić, przecież przed chwilą mi

powiedziała, że jest właśnie taki.

Wojciech Nowicki (31:50) Tutaj jest ogólnie problem, bo właśnie, jeżeli ludzie widzą, że sztuczna inteligencja to tylko chart GPT lub pokrewne, to mamy tutaj duży problem. Wspomniałaś o tych wyrokach podejmowanych przez algorytm? To jest algorytm, tutaj te ograniczenia możemy wrzucić, my je ustalamy. Co w przypadku, gdyby to była rzeczywiście sztuczna inteligencja?

Tam mówimy o błędach właśnie przetrenowania, tego typu rzeczach. Natomiast ja bym chciał się zapytać troszeczkę o sztuczną inteligencję, może spoza tej generatywnej. Na przykład kwestia taka też dosyć popularny temat. Odpowiedzialność za wypadek spowodowany przez autonomiczny samochód.

Ewa Milczarek (32:39) Tak,

to też był problem, który się pojawiał, który był analizowany, kto w końcu ponosi odpowiedzialność. Mieliśmy wypadki, które były z autonomicznymi samochodami. Słyszałam, że jeden był wypadek spowodowany tym, że nagle człowiek usiadł za kierownicą i próbował gdzieś pokierować ten samochód i rzeczywiście doszło do wypadku. I tu pojawia się kwestia, mamy coraz więcej też sprzętów, które przecież korzystają z tego typu technologii.

i w Polsce jeszcze tego nie widać, ale w krajach azjatyckich jeżdżą autonomiczne samochody, które też w taki sposób funkcjonują. Kto będzie odpowiedzialny za wypadek samochodu, którego nikt nie prowadził? Tutaj też nie ma jednoznacznej odpowiedzi na ten temat. Mówimy, że najprawdopodobniej będzie to twórca technologii, ponieważ nikt inny nie miał rzeczywistego wpływu na to, dla niego…

kwestią istotną jest stworzenie zabezpieczeń tego systemu funkcjonowania, by on był bezpieczny w prowadzeniu. Nie zawsze to będzie tak, bo musimy wziąć pod uwagę, że w momencie, którym bierze udział 2 lub więcej podmiotów w wypadku, to musimy sprawdzić, co tak naprawdę było przyczyną tego wypadku, co do tego doprowadziło.

więc za każdym razem będziemy to badać i czy przypadkiem przyczyna wypadku nie leży w oprogramowaniu, które zaproponował producent.

Wojciech Nowicki (34:12) Jasne, to też tak musi się upowszechnić, żeby się te problemy pojawiły. Chociaż tu zwykle też czasem słyszę takie odpowiedzi, że no dobra, no ale ile ludzie powodują wypadków codziennie, więc czemu się czepiać tej jednej sztucznej inteligencji.

Ewa Milczarek (34:28) ale

to jest właśnie ta kwestia, bo wypadki są codziennie, ale mamy praktykę z tym związaną i ze sztuczną inteligencją będzie tak samo. Teraz te problemy wydają nam się zaskakujące i nie wiemy, którą stronę to doprowadzi, jednak w momencie upowszechniania się tego typu rozwiązań zaczynają one nam tworzyć nową rzeczywistość. Tak samo było przecież z komputeryzacją i też było pytanie, kto będzie odpowiadał za to i system prawny świetnie sobie z tym poradził.

Zresztą ten system prawny, który mamy, ta Europejska Konwencja na przykład o ochronie praw człowieka i tych podstawowych wolności, ona powstała nam w latach 50. Nie było mowy o informatyzacji, nie było mowy o komputeryzacji jeszcze na taką skalę jaką widzimy to teraz i ona przetrwała tą próbę czasu i ona dostosowała się idealnie do nowych warunków, które są diametralnie różne poprzez interpretację tych norm i tych zasad, które funkcjonują nam już przecież od…

od dziesiątków lat. Także myślę, że to też jest kwestia tej długotrwałej praktyki, jakiegoś powszechnego konsensusu, jak powinniśmy te decyzje oceniać.

Wojciech Nowicki (35:40) Ok, to teraz tak, system prawny, a jak się ma przyszłość prawników w kontekście AI?

Ewa Milczarek (35:49) Ostatnio mieliśmy konferencję naukową, jednoznacznie stwierdziliśmy, że jesteśmy niezastąpieni i to jest bardzo optymistyczna wersja. Prawda jest różna. Mieliśmy już do czynienia z testami, którym była sztuczna inteligencja kontra najlepsi amerykańscy prawnicy i ta sztuczna inteligencja tworzyła umowy o wiele lepsze, szybciej.

zwracała uwagę na większą liczbę szczegółów poprzez dostęp do olbrzymiej bazy danych. Więc to jest rzeczywiście narzędzie, które będzie również przyszłością dla prawników. Jednakże to się przydaje i myślę, że będzie wykorzystywane w takich prostych sprawach, do których już wykorzystujemy szablony, formularze, mamy Lexa, Legalisa, z których korzystamy i tamten dostęp jest. Ta kwestia…

ostateczna, czyli podejmowania decyzji na temat rozwiązania pewnego stanu prawnego, wskazania możliwych kierunków rozwiązań czy też analizy prawnej, myślę, że AI będzie mogło działać jako narzędzie pomocnicze, ale właśnie ze względu na tę kwestię odpowiedzialności i tę kwestię też doświadczenia,

ten element występowania tych profesjonalistów, czyli prawników będzie nam występował. Ja widzę na to jako szansę do upowszechnienia dostępu do usług prawniczych, które ze względu właśnie na wykorzystanie sztucznej inteligencji te podstawowe rzeczy, jakaś zapłaty, proste sprawy będą mogły być bardzo mocno wspomagane przez sztuczną inteligencję, co przyspieszy czas reakcji.

Ale myślę, że właśnie ze względu na tę kwestię odpowiedzialności, te trudniejsze sprawy pozostawimy tej może kompilacji człowieka i sztucznej inteligencji nigdy samej sztucznej inteligencji.

Wojciech Nowicki (37:47) Znaczy ja myślę, tutaj podobnie programiści też uważają, że są niezastąpieni i myślę, że oboje mamy w tym rację. Na pewno jesteście niezastąpieni, ale moim zdaniem wszystkie zawody specjalistyczne zostaną mocno zredukowane. Bo to tak jak ja widzę u siebie, że możemy osiągnąć taką pięć razy większą wydajność.

No to tutaj tak samo, więc to się wszystko pozmienia. trochę już tym wspomniałaś, może jeszcze coś byś chciała dopowiedzieć. Jak widzisz właśnie zawód prawnika przyszłości za te 5-10 lat wspomaganego AI. Jak to będzie wyglądać w twoim zdaniu?

Ewa Milczarek (38:31) My już prowadzamy już od przyszłego semestru te kwestie sztucznej inteligencji jako element, który będzie nam bardzo mocno występował w planie studiów prawniczych, już na Wydziale Prawa i Administracji Uniwersytetu Szczecińskiego będzie. My nie będziemy udawać, że tego nie ma i że to nas nie będzie dotyczyć. Chcemy nauczyć studentów korzystanie z tego mądrze, weryfikacji tego, co jest tam napisane. To może znacząco poprawić efektywność pracy.

to moim zdaniem może znacząco zbliżyć prawników do społeczeństwa i ułatwić wykonywanie tych usług ze względu właśnie na to, że ta efektywność będzie o wiele większa, więc te ceny też powinny razem z tym spaść. Konieczne jest moim zdaniem w tym procesie edukacji zwrócenie uwagi właśnie na tę odpowiedzialność i niepoleganie w 100 % na tych wynikach, które ta sztuczna inteligencja nam daje.

Choć wiemy o tym, że największe systemy dostępu do informacji prawnej, czyli Lexi Legalis pracują nad swoją sztuczną inteligencją i ona będzie na pewno zrewolucjonizuje nam sposób i orzekania, i podejmowania decyzji analiz prawnych, ponieważ będzie bazowała na niesamowitej ilości prawniczej literatury i wyroków, więc będzie dokonywała…

takiej analizy, której normalny człowiek nie byłby w stanie po prostu przeprowadzić. Ja w swojej pracy też tą sztuczną inteligencję wykorzystuję, jednak bardziej jako poprawa wyglądu zdania, na przykład gdy mi się nie podoba, czy też prośba o weryfikację jakichś innych możliwych orzeczeń, o które mogłam pominąć.

Gdy próbowałam i robiliśmy takie symulacje na zajęciach wygenerować już cały artykuł, no nie wyglądało to na razie dobrze. Nie mówię, że nie będzie wyglądało w przyszłości, ale na razie jest to temat do dopracowania, oczywiście też odpowiedniej pracy z tymi promptami, odpowiedniej bazy danych na podstawie, której uczy się ta sztuczna inteligencja, więc dla zawodu prawnika ta sztuczna inteligencja

Lexa, Legalisa czy innej też firmy będzie miała kluczowe znaczenie. No ale cieszę się, że to w programie studiów występuje, że zwracamy na to uwagę, że zastanawiamy się nad sensem występowania prac magisterskich, które już widzimy, że często przechodzą przez tą maszynkę takiej lub też innej sztucznej inteligencji i trzeba nad tym się zastanowić, jak uczyć wykorzystywać to w sposób odpowiedzialny. I tak jak powiedziałeś,

Ta grupy z nas, nieważne w jakim zawodzie, które będą w stanie wykorzystywać, będą miały wykorzystywać sztuczną inteligencję, będą miały przewagę nad tymi, którzy będą zaprzeczać istnienia tej technologii.

Wojciech Nowicki (41:34) Jasne. To teraz takie, żeby spiąć klamrą naszą rozmowę. Jedno największe nieporozumienie, krótko mówiąc, dotyczące prawa i AI. Albo jakiś mit, nie wiem.

Ewa Milczarek (41:48) WIIII

Mit w prawie dotyczący sztucznej inteligencji. Jeden mit, mi się pojawił, może niekoniecznie związany z prawem, ale pamiętam, jak były wybory i dużo osób wskazywało, że zapytało sztuczną inteligencję, kto wygra wybory i byli przekonani, że skoro ona podała im odpowiedź, to znaczy, że taka będzie rzeczywistość. To znaczy zakładali, że ona przewiduje przyszłość w jakikolwiek sposób, że to już musiało być zaplanowane przez kogoś, skoro…

Skoro ona już wie, bardzo mnie to obawiło, bo ona działa na podstawie danych, więc może dać jakąś predykcję tego, co jest. Myślę, że obecnie dużo osób już traktuje sztuczną inteligencję jako podmiot prawa i uważa, że będzie ona ponosiła jakąś odpowiedzialność i posiadać jakieś prawa i to widzę też wśród studentów, również studentów prawa, którzy…

ją bardzo w swoich głowach uczłowieczają. Ważne jest, żeby powiedzieć teraz, że na razie jest to traktowane tylko i wyłącznie jako narzędzie. My możemy prowadzić dysputy prawne na ten temat i zastanawiać się jaka będzie przyszłość, ale obecnie ona odpowiedzialności nie ponosi. Obecnie ona praw nie posiada i na razie nie zapowiada się nic, żeby to się miało zmienić.

Wojciech Nowicki (43:16) No to tutaj już takim żartem troszeczkę na koniec. Jak tu nie traktować jak człowieka kogoś kto przeszedł testu ringa. To w tym momencie skoro mówi jak człowiek, skoro wnioskuje jak człowiek, skoro podpowiada mi jak człowiek, no to tam z tyłu musi być człowiek. Dokładnie.

Ewa Milczarek (43:23) Rado.

Tak, znaleźć różnicę, Ale nawet był taki

eksperyment, którym pacjenci mieli do wyboru rozmowę z prawdziwym lekarzem i z czatem, czy z inną sztuczną inteligencją i wskazywali, że ta sztuczna inteligencja była bardziej ludzka, miała więcej empatii.

Wojciech Nowicki (43:53) Bo nie była zmęczona.

Ja wiem też o tym słyszałem i to są takie ciekawe zagadnienia, ale tu znowu wchodzi do tego, że do podstawy LLM. LLM próbuje ci zawsze jednak powiedzieć to co chcesz usłyszeć. Gorzej jakby ten sztuczny lekarz miał złe nowiny przekazać. Pytanie jak bardzo by kombinował. Ale tak to jest, rzeczywiście sztuczna inteligencja nie jest zmęczona, miała nieprzespanej nocy, nie miała awantury w domu, więc…

No tutaj jeszcze mógłbym tak samo właśnie zapytać, już może tak poza kolejnością troszeczkę w takim razie, a sędzia, sztuczna inteligencja jako sędzia, nie, co o tym myślisz.

Ewa Milczarek (44:34) Też były takie badania na temat wpływu czynników zewnętrznych na decyzje sędziego i olbrzymi wpływ ma zarówno wygląd oskarżonego, im bardziej kobiece rysy, delikatne, duże oczy, tym mniejsze są wyroki, ale również to, czy sędzia jest po, czy przed obiadem. Ale również to właśnie w jaki sposób…

czy miał kłótnie z żoną, jakie jest jego personalne nastawienie, jaki ma dzień. Też zastanawiałam się w ogóle nad wpływem na przykład social mediów na decyzje sędziego, bo jesteśmy w stanie dopasować ten algoryt do konkretnej osoby i jeżeli chcemy osiągnąć jakiś wynik, możemy pokazywać mu materiały, które na przykład kierują go w odpowiednią decyzję, gorzej lub lepiej nastawiają do określonej sytuacji, nie mów już do określonego oskarżonego.

Przy tych wyrokach sztucznej inteligencji, bo to również się podaje jako takie wyroki, które miałyby być sprawiedliwością samą w sobie, pozbawioną tych właśnie ludzkich czynników, to jest zawsze jakieś rozwiązanie, tylko niestety z racji tego, że ona się uczy na danych rzeczywistych, ona nie jest pozbawiona kwestii uprzedzeń, dyskryminacji i będzie dawała wyroki takie jak…

jak my, więc nie jest remedium na cały złotego świata i sprawiedliwości, jakie ma być. Nawet w Amazonie próbowali, żeby uniknąć kwestii dyskryminacyjnych, dali sztucznej inteligencji do oceny życiorysy kandydatów, które były zanonimizowane i ona była w stanie wykryć, jest kobieta i odrzucić.

Wojciech Nowicki (46:22) No tak, tylko bo ja ostatnio

na webinarze akurat przytaczałem dokładnie ten sam case, no nie z Amazonem, tylko tam okazało się, że w danych treningowych był ukryty ten bajas. On tam był i to jest wiesz, to jest proste, tak? Sztuczna inteligencja nie rozróżnia dobrego, złego prawdy od fałszu. Ona po prostu widzi wzorce z danych uczących. No i teraz…

Ja powiem tak po inżyniersku trochę, a jakby nauczyć tego sędziego na totalnie takich czystych danych, tak, oczyszczonych ze wszelkich tych, no to ja chyba bym wolał się poddać takiej ocenie.

Ewa Milczarek (46:54) Mhm.

Jest to też rozwiązanie, to, ja nie mówię, nie. Możemy to tylko, wymagałoby to rzeczywiście testów weryfikacji tych danych i pilnowania czynników tych danych źródłowych też nie grzebie. jeżeli chodzi o tę dyskryminację i sztuczną inteligencję, też z ciekawostek w Stanach Zjednoczonych stworzona, ona jest w stanie bardzo wysoką prawdopodobnością stwierdzić.

czy osoba, która występuje na danym zdjęciu jest osobą homoseksualną. I to był, na konferencji, byłam, to traktowane jako ciekawostka. A potem zaczęliśmy się zastanawiać, OK, w naszym systemie prawnym to nie jest problem, bo nie ma dyskryminacji pomiędzy osobami hetero i homoseksualnymi, na przykład w miejscu pracy, ale już na przykład w kraju takim jak Iran, czy to może być podstawą do wydania wyroku śmierci na osobę, które sztuczna inteligencja stwierdziła, że jest osobą homoseksualną?

Wojciech Nowicki (47:55) No, to tworzy problemy.

Ewa Milczarek (47:57) I tu kolejny film, który nam się pojawia, raport Mniejszości, który też może być ciekawym casem do rozważania w tym przypadku.

Wojciech Nowicki (48:01) Dokładnie tak.

Czyli dochodzimy do tego, że jeżeli gdziekolwiek w procesie jest człowiek, to nie da się uniknąć koniec końców jakiejś próby manipulacji, wpływu na ten proces. Czyli my jednak jesteśmy tym najsłabszym ogniwem procesu.

Ewa Milczarek (48:21) Tam gdzie człowiek, tam problem niestety, tak się kończy. To jest akurat nasz plus i minus, że mamy taką zdolność dostosowywania do siebie całego otoczenia i nie jesteśmy maszynami, więc zawsze będziemy chcieli trochę przeciągnąć z naszą stronę.

Wojciech Nowicki (48:44) Dobra, czyli od dzisiaj mój katalog przysłów rozszerzam tam, gdzie człowiek tam problem, bo u nas się mówi, że problem zwykle znajduje się między krzesłem a monitorem. dobra, super. Dziękuję ci bardzo za rozmowę.

Ewa Milczarek (49:00) Ja dziękuję serdecznie za zaproszenie, naprawdę interesujące.

Wojciech Nowicki (49:03) Mam nadzieję, że do usłyszenia.

Ewa Milczarek (49:05) Do usłyszenia!

Wojciech Nowicki (49:12) Mam nadzieję, że zainteresowaliśmy Was tą tematyką. Przypominam, że transkrypcję odcinka znajdziecie na hospoda.tech, łamane na 22 od numeru tego odcinka. W następnym odcinku moim gościem będzie Artur Czepiel. Z Arturem porozmawiamy o konferencji EuroPython 2026, która odbędzie się w lipcu. I tutaj chwila suspensu dla tych, co jeszcze tego nie wiedzą.

ale konferencja odbędzie się w Krakowie. Jeżeli jesteście ciekawi kolejnych odcinków to zasubskrybujcie podcast w aplikacji, w której mnie słuchacie lub oglądacie w tej chwili. Dajcie lajka, zostawcie komentarz lub wystawcie ocenę. Będzie to dla mnie duża motywacja do dalszego tworzenia podcastu. Przypominam o newsletterze, który znajdziecie na stronie hospoda.tech oraz o kontach na Facebooku, iksie, BlueSky App oraz Instagramie. Dziękuję za dzisiaj.

Do usłyszenia oraz do zobaczenia.