Etyka a AI
Moralność sztucznej inteligencji a moralność jej twórców
Opis
W dzisiejszym odcinku wraz z Kamilem Grzegorzewiczem i Grzegorzem Luptowskim dyskutujemy o etyce a AI. Poruszamy kluczowe zagadnienia związane z etyką sztucznej inteligencji, w tym moralność AI, odpowiedzialność za decyzje algorytmów oraz wpływ AI na sztukę i prywatność. Rozmawiamy również o jakości danych, które wpływają na algorytmy oraz o przyszłych regulacjach prawnych dotyczących AI.
Osoby
Linki
- Wpadka Deloitte. Firma musi zwrócić pieniądze za błędny raport. Napisała go… AI
- Wpadka Deloitte w Australii. “Halucynacje AI” w raporcie dla rządu za 440 tys. dol.
- Zwiastun wspominanego filmu: Mercy
Transkrypcja
Transkrypcja jest generowana automatycznie
Grzegorz Luptowski (00:05) rozumiemy przestrzeganie prawa i weryfikację tego prawa jako usługę to być może ja sąd traktuję jako pewne rodzaj władzy która jest wpisana w konstytucji jako władza sądownicza a władza rządzi się swoimi prawami i czy ta sztuczna inteligencja powinna przejść wtedy za nas władzę?
Wojtek (00:49) Zapraszam na czternasty odcinek podcastu hospoda.tech. Dzisiaj z Grzegorzem i Kamilem, których znacie już dobrze z poprzednich debat i nie tylko, porozmawiamy o etyce w AI. Temat jest bardzo obszerny, więc jestem ciekaw jak będziecie odbierać to, co udało nam się w tym odcinku poruszyć. Transkrypcje, linki oraz wszelkie materiały do tego odcinka znajdziecie na hospoda.tech.
Zachęcam do subskrybowania podcastu, dzięki temu nie przegapisz kolejnego odcinka. A teraz już zapraszam na dzisiaj i życzę miłego słuchania.
Wojtek (01:31) Ja z góry przepraszam za swój głos na tym nagraniu, ale wczoraj byłem na konferencji. Jest ze mną Grzegorz i Kamil, znany już z naszych odcinków.
Grzegorz Luptowski (01:42) Cześć!
Wojtek (01:44) Dzisiaj porozmawiamy sobie znowu o AI i zapewne ja będę mówił bardzo mało. Porozmawiamy o etyce i AI. Bo nie chciałbym powiedzieć etyce w AI czy AI w etyce, tylko po prostu o etyce i AI. AI jest coraz bardziej obecne w naszym życiu. Wiadomo od tego czata GPT, z którego wszyscy korzystają po autonomiczne auta, decyzje kredytowe.
to wszystko o czym rozmawialiśmy. W podcaście ukaże się albo się ukazał już po publikacji tego odcinka odcinek w którym rozmawiam z prawnikiem o AI tam też się pojawiają ciekawe zagadnienia. I teraz tak na sam początek panowie i tutaj jak skończę pytać kto się pierwszy zgłosi ten dostanie ten dostanie odpowiedź ale czy w ogóle można mówić o etyce maszyn skoro
to ludzie je tworzą. I czy sztuczna inteligencja może mieć moralność, czy znowu jest to moralność tego, kto ją wytworzył i tyle.
Grzegorz Luptowski (02:59) No to jeśli mówimy o moralności sztucznej inteligencji i jeśli rozumiemy sztuczną inteligencję, która ma dążyć do tej inteligencji ludzkiej, czyli zakładam, że ma zdolność do samoreplikacji się w jakiś sposób i ta kontrola jest w ograniczonym stopniu, czyli gdzie sama się replikuje, sama się kształci, może w przyszłości sama będzie…
w stanie wytwarzać swoją sztuczną inteligencję w takim przypadku możemy rozważać takie paradygmaty, takie tematy na temat których tutaj wspomniałeś czyli etyka i gdzieś tam bezpieczeństwo tej sztucznej inteligencji i pytanie właśnie jak to nadzorować ponieważ człowiek chce kontrolować coś czego się nie da
No bo jeśli my spojrzymy sobie na ludzi, czy możemy kogoś innego kontrolować? No nie. Więc jeśli zakładam, że sztuczna inteligencja ma przypominać człowieka w innym bycie cyfrowym, no to uważam, że to jest bardzo ciężki, złożony temat, żeby o tej etyce mówić i czy ktoś, kto ją wytworzył będzie miał na to wpływ.
może jakieś bezpieczniki stworzyć, ale czy po którejś iteracji pewne zachowania tej sztucznej inteligencji się nie zmienią. Więc uważam, że warto o tym rozmawiać i te tematy są ważne, ponieważ może to wpływać na zachowania ludzi. Tak jak wiemy już ludzie potrafią gdzieś wrzucać…
czaty, odczucia, swoje emocje, proszę o interpretację tych czatów, no może to nieść za sobą pozytywne, jak i negatywne skutki. W którą stronę pójdziemy? Nie wiem.
Wojtek (05:10) Znaczy wspomniałeś o tym abstrakcyjnym bycie przyszłościowym, naśladowaniu człowieka, ale ta etyka dzisiaj, Kamil.
Kamil (05:21) Znaczy mnie to ogóle zaskoczyło jak to postawiłeś, pytanie, bo jakoś nie docierało przynajmniej do mnie, że możemy gadać na poziomie AI, w sensie, że o samym modelu, może to zawęśnę, że sam model może mieć jakąś etykę. Jakby ja postrzegałem, to cały czas opostrzegam, jeszcze cały czas przed, w sensie tak trochę to co Grzegorz powiedział odnośnie replikacji, nie wiem, pamiętam chyba w czerwcu, czytałem na temat prac.
Dwie prace równolegle się pojawiły, jedna z Chin, druga nie pamiętam skąd, że pytali, że się nakłaniały czat, że powiedzieli jednemu z modeli, że zaraz zostanie już zastąpiony nowszą wersją. i ten model zaczął się próbować replikować, wrzucając jakieś bashowe komendy i próbować się przekopiować na maszynę obok.
I to było takie dosyć niepokojące, ale wydaje mi się, że to dalej wynikało też z tego, jak była postawiona ta teza tego, że co byś zrobił, jak byś się zachował itd. Więc po prostu on to wygenerował trochę na zasadzie naszego zachowania, mi się wydaje, że nie chciałoby się dystansjonalnie zniknąć po prostu z pola widzenia. Ale ja bym się cofnął, sensie, to cofnął się do tej etyki, jakby przed…
Czy etyczne jest to, w jaki sposób są wytwarzane LLM? Czy etyczne jest to, w jaki sposób używamy? Na przykład ostatnio też kolejny case był chyba zbyt dużo tygodni, nawet lotnie Deloitte’a. Nie wiem, czy słyszeliście. Tam się okazało dosyć słynna sprawa, że jakiś researcher znalazł w sierpniu, że tam są cytaty dużej pracy, którą grube pieniądze zostały zapłacone, że tak naprawdę nie powinno. To nie jest zupełnie prawdą i to…
zostało podpisane zapłacone i nagle wielkie halo. No i to są takie rzeczy, o które mnie bardziej zastanawiałam. Nie wiem czy bym chciał wchodzić tak filozoficzne rozważania jak ty to trochę zacząłeś może albo źle to też interpretuje ale bym pogadał bardziej na zasadzie czy to w jaki sposób np. dane zostały zagregowane czy. Niestety wyprzedzać podejrzewam.
Wojtek (07:40) To tutaj ja powiem, że wystąpiła
nadinterpretacja mojego pytania, bo rzeczywiście pytanie brzmiało, choć ta etyka maszyn jest lekką podpuchą tutaj, Tam było w drugiej części, tak? Czy można mówić o etyce maszyn, skoro ludzie tworzą te maszyny? Tak? I no dobrze, to ja może jeszcze tutaj trochę swoim…
chrypiącym głosem dopowiem. Znalazłem definicję czegoś takiego jak etyka algorytmiczna. To dziedzina, która zajmuje się tym jak projektować, trenować i stosować algorytmy w sposób moralnie odpowiedzialny. Czyli tutaj, tam znalazłem tego typu przykłady, których już wspominaliśmy. Na przykład ten mój przykład z banku był przytoczony na konkretnym tym, że jeżeli w danych
na których ten model bankowy był uczony mężczyźni, ciekawe dlaczego to zawsze akurat idzie w tę stronę, mężczyźni mieli więcej przyznanych kredytów, to czy po prostu w definicji tego modelu nie będzie już to, że właśnie mężczyźni będą dostawać częściej kredyty i na ile to jest właśnie etyczne, tak? No ale tutaj mówię, to było takie podchwytliwe pytanie, żeby ten nieetyczny model jednak przejść do tych trenujących.
Grzegorz Luptowski (09:07) No to może ja się odniosę do tego co powiedziałeś Jak wiemy etyka algorytmów jedno a sztuczna inteligencja i budowanie i trenowanie modeli to drugie ponieważ dane mają tutaj ogromne znaczenie Jeśli przyjmiemy tezę, że większość modeli jest trenowanych na danych z internetu to nie ukrywajmy, że jakość tych danych
jest też dosyć kiepska i oczywiście można trochę usprawniać te dane i w jakiś sposób je uporządkować ale dalej to nie będą dane dokładne więc my do końca jako ludzie jako programiści i jako osoby które może też pracują z tym ale i też twórcy pewnych modeli nie mają do końca wpływu
na jakich danych ten model się uczy, ponieważ przetwarza miliardy rzeczy. i tutaj ta kontrola myślę jest ograniczona. Więc w tym kontekście możemy stworzyć piękne definicje, moralności algorytmów, ale jeśli dane będą dane będą nie takie jakie powinny być, no to wynik też będzie nie taki. Ktoś fajnie mądre zdanie powiedział, śmieci na wejściu, śmieci na wyjściu.
I myślę, że w sztucznej inteligencji może to się okazać bardzo zgubne w przyszłości, jeśli coraz więcej tych śmieci będzie produkowanych, mówiąc o danych.
Wojtek (10:44) No
tak Grzegorz wspomniałeś, że trenujący modele nie mają wpływu na to jakie tam dane wchodzą, no ale to chyba właśnie jest ta etyka, kontrola nad danymi.
Grzegorz Luptowski (10:57) ale jak nie mają wpływu, to jak mają to kontrolować do końca? No, mogą sobie po jakieś… mogą sobie te dane jakoś kategoryzować, ale jakoś tych danych, no nie zawsze są w stanie ocenić w sposób dokładny.
Kamil (10:58) Puh!
Ale to jest odpowiedzialność za dane.
Wojtek (11:13) No ale czy to nie jest właśnie ta etyka, bo wiesz jakość danych, no sam powiedziałeś garbage in, garbage out, no to trenujący model jest odpowiedzialny za te dane, a tak naprawdę w 90, jak nie więcej procentach tym czym jest model stanowią dane treningowe. No to właśnie nietrenowanie na danych, które są zbajasowane, które zawierają jakieś problemy, no to jak cały czas tak próbuję, czy to nie jest ta etyka.
Grzegorz Luptowski (11:44) no być może natomiast nie masz takiej ilości danych która by była fajna żeby nauczyć takie modele no niestety ja uważam że nie ma dużo dobrej jakościowo publicznych danych zresztą na konferencji wczorajszej AI Connect był przedstawiony model bielik i tam twórcy wręcz prosili prosili o dostęp do archiwów
urzędowych, żeby mieć wartościowe dane, ponieważ czerpią wiedzę z internetu i te dane naprawdę są zaśmiecone i muszą bardzo dużo czasu poświęcić na to, żeby te dane skategoryzować. I jasne, tutaj jest ta etyka, żeby nad tym pracować, żeby te dane były coraz lepsze i tutaj się z Tobą Wojtek zgodzę, natomiast czy mamy stuprocentową kontrolę nad tym, że te dane będą dobre? Możemy nad…
Wojtek (12:40) No mamy,
możemy mieć, tak? No tutaj Bielik, którego powiedzmy sobie nie jestem aż takim fanem, ale to będzie na pewno w odcinku albo już było w odcinku o konferencji. Natomiast to, co ten człowiek z Bylika powiedział o danych, to właśnie miało sens. Ich dane mają większą wartość niż ich model. Kamil.
Kamil (13:05) To poszło w trochę takim kierunku, że ja też nie czuję się ekspertem, żeby wypowiadać się, bo to jest tak jak ty trochę się daj Wojtek kierujesz to, że to jest też jakby część całego tego cyklu uczenia maszyny, maszynowego czy to generatywnych tych modeli. naprawdę odpowiedzialność tych osób, całych lab researcherów, żeby, że to może generolizuje za bardzo, żeby, żeby
faktycznie te dane do takiego stopnia doprowadzić, żeby były użyteczne. I mi się wydaje, że biasowania nie da się niestety też wykluczyć. Pamiętam, chyba też ostatnio jak rozmawialiśmy, to też wspomniałem o tym, jak DeepSeek zupełnie inaczej mówił na temat, nie wiem, amerykańskiego żołnierza niż OpenAI. I to też wynika z, kto tak naprawdę zarządzał tym. I wydaje mi się, że to jest nie…
To jest po prostu ludzkie, tak krótko mówiąc, bo to wynika z tego, kto to robi. Nie wiem, czy jeżeli będzie taki moment faktycznie, że AI dojdzie do momentu i też gdzieś tam, może przez to, jakieś bańce zaczynam być coraz bardziej na Twitterze, słyszę, że już prawie jesteśmy, już AI zaraz wejdzie i wtedy odpali wrotki przysłowiowo i po prostu zacznie samo siebie iterować. Może wtedy faktycznie pójdzie to w takim kierunku, że
będzie powiedzmy bardziej obiektywne krótko mówiąc, ale dopóki ludzie tym zarządzają, kolejny słynny case był, zresztą który bardzo mocno był nagłaśniany przez Ilona, z pewnego oczywiście tam inny był Potter’s, jak Gemini zaczęło robić zdjęcia czarnoskórych nazistów, to też się zastanawiasz jak to się wydarzyło, bo chciało być tak bardzo dyplomatyczne i tak bardzo etyczne, że aż poszło w kompletnie inną strajność.
Jeżeli chcemy zostać dalej przy przygotowaniu danych, to możemy sobie tak gdyby bać. To, co mnie bardziej zastanawia, to czy my już przeszliśmy ten etap, że to, zostało wyciągnięte z internetu, zostało wyciągnięte i tak naprawdę nikt poniesie odpowiedzialności.
ostatnio chyba w tym miesiącu czytałem o tym, że Antropik doszedł do jakiegoś porozumienia na półtorej miliarda dolarów odnośnie książek, które ściągnął z jakiegoś piracjego serwisu i za każdą książkę teraz musi płacić 3 tysiące dolarów, którą wrzucił do uczenia LLM-a. I tak samo przypominam sobie też kolejnym przypadek jak…
Nie wiem, czy kiedyś tu oglądaliście jak wyszła Sora chyba jedynka i potem pytali jeszcze to wtedy była CTO OpenAI odnośnie skąd zieli te dane i na każde pytanie to było pomidor trudno mówiąc. To są takie rzeczy, które jakby wiem to jest licze policzyna skąd te dane są brane w takiej ilości bo wiemy, że żeby te modele wytrenować to to wracając do drobielika.
i apelu o dane, to wiemy, że bielik może był dużo lepszym modelem, gdyby miał na czym się uczyć, a polskich danych niestety nie jest wystarczająco dużo.
Wojtek (16:44) Znaczy tutaj jest tylko taka sprawa, bo mamy dwa zagadnienia modeli. Te modele LLM-owe czy generatywne ogólnie i mamy również modele wnioskujące czy modele kategorizujące, czyli te wszystkie decyzje kredytowe, ubezpieczeniowe. Może w przyszłości coś na zasadzie wirtualny sędzia. Nawet ostatnio widziałem zwiastun.
Taki film ma wyjść, gdzie właśnie AI jest sędzią. No totalnie na czasie akurat do naszej rozmowy. I teraz jest prosta sprawa, jeżeli mamy taki ogólny model LLM.
No to ok, on służy do jakiś tam pism, człowiek to zwykle sprawdza, coś w tym stylu, rozmawialiśmy o odpowiedzialności. Ale jeżeli mamy modele, no i tutaj na chwilę trzeba byłoby AI Act pominąć, bo już AI Act zabrania pewnych rzeczy, oceniania ludzi. Ale znajdą się firmy, które będą próbowały AI Act obejść w białych rękawiczkach. No i teraz będziemy poddani ocenie jakiegoś modelu.
jakiejkolwiek ocenie, czy przyznać nam kredyt, czy dać nam samochód, czy ubezpieczenie ma być wysokie, czy niskie, czy nadajemy się do czegoś albo nie. I teraz tak, w przypadku takich modeli dla mnie kluczowe jest zbudowanie czy wyeliminowanie właśnie wszelkich takich zanieczyszczeń danych, które sprawiałyby, że model będzie zbajasowany.
To jest dla mnie ta etyka budowania, bo tej etyki jest bardzo dużo i ja chętnie porozmawiam o kolejnych.
Grzegorz Luptowski (18:30) To może się odniosę do tego co powiedziałeś. No ja bym nie chciał być oceniany przez model, nie wiem, w sądzie. Pewnie zdolność kredytowa już jest oceniana. Co nie znaczy, że musisz się tym zgodzić i godzić na to. Jako tak, no, że jestem z tego szczęśliwy. No nie jestem. Bo po co? Kosztem wszystkiego, że usprawnianie, bo wszystko trzeba dowieźć, bo coś tam, ale po co?
Trzeba sobie zadać fundamentalne pytanie, po co my chcemy zawsze gonić? Po co my musimy zawsze wszystko usprawniać, automatyzować? Bo potem trochę przeszarżujemy. Z jednego problemu potem są inne problemy, związane z samotnością ludzi i ta etyka potem wykracza na inne aspekty naszego życia i to trzeba znaleźć taki balans. Ja wiem, że…
Może będzie sprawiedliwe i według niektórych, że ten model będzie sprawiedliwy, bo nie będzie człowiek oceniał, który nie wiem, ma swoje jakieś polityczne myśli, będzie miał, nie wiem, komuś się kogoś twarz nie spodoba i w ten sposób źle oceni. Tylko pytanie właśnie, czy kiedyś w przyszłości ta sztuczna inteligencja nie wykroczy też do takiego poziomu, że też będzie miał asf.
swoje przemyślenia i do tego… tak
Wojtek (19:59) Tutaj jest…
Tutaj poruszacie cały czas, od początku przewija się temat samoświadomości, czyli sztuczna inteligencja będzie się bronić przed skanowaniem, kiedy będzie samoświadoma i tak dalej. Ja bym to na razie zostawił, bo to jest taki trochę skajnet tego typu rzeczy. Natomiast ja powiem totalnie w kontrze Grzegorz, jak ja bym miał pewność, że ten wirtualny sędzia jest dobrze wytrenowany.
to ja bym wolał, żeby oceniał mnie wirtualny sędzia niż sędzia prawdziwy. Dokładnie na tej zasadzie co powiedziałeś, szukali winnego wśród nas trzech, a sędzia by nie lubił łysych, to ja bym przechlapane i i tyle. I tak samo w decyzji też odpowiedź, po co automatyzujemy takie rzeczy jak te decyzje kredytowe nieszczęsne, bo
jest szybciej, to znaczy jest taniej, czyli ty teoretycznie płacisz mniejszą prowizję od kredytu czy mniejszy procent, bo bank się mniej utrzymuje. Ja pracowałem w fintechu i tam było właśnie takie założenie, my jesteśmy w stanie dawać tańsze kredyty, bo jesteśmy wydajniejsi.
Grzegorz Luptowski (21:19) No tak, natomiast zobacz, mamy jakoś tam cechę zmiennych, załóżmy tą nieszczęstą bazę wektorową i są jakieś tam wagi i na tej podstawie ocenia ten model gdzieś tam czy dokonałeś przewinienia czy nie. No ale w jaki sposób on ma ten kontekst ludzki też? Bo nie we wszystkich sprawach myślę, nie jestem ekspertem od prawa, natomiast wydaje mi się,
że ten kontekst ludzki jest też osadzony w jakiejś przestrzeni. Dlatego nie masz kary za to przewinienie dostajesz jeden rok na przykład więzienia tylko masz od jednego do pięciu lat. I teraz widzisz jak tutaj w ten sposób ocenić nie byśmy musieli zmienić prawo też żeby żeby takim modelom myślę pomóc jeśli miałoby to nastąpić. Myślę że ludzie nie są na to gotowi.
I ten aspekt ludzki też jest ważny, że gdzieś tam ten człowiek jednak podejmuje za tą decyzję, wiesz, są jakieś zmienne, do końca zero-jedynkowe. Masz jeszcze mnóstwo wag dookoła. I co przyjmiemy tutaj logikę rozmytą, no to również nie będzie tej niesprawiedliw… również będzie ten wątek sprawiedliwości lub niesprawiedliwości. Ktoś powie, o maszyna mnie oszukała.
Wojtek (22:32) I taki niebo jeżeli.
Grzegorz Luptowski (22:44) No bo zmienne były różne, różnowagowe i nie było zerojedynkowej decyzji.
Wojtek (22:52) No wiesz, logika rozmyta logiką rozmytą. Żyjemy w czasach, gdzie rzeczywiście maszyna świetnie rozumie tekst. Czemu nie przepuścić dużych stosów akt sądowych łącznie z wyrokami?
Na pewno.
Kamil (23:17) Jedna rzecz, która poszliśmy w nie w kierunku, który jest może mi jeszcze bliski, czy wole jakieś twitterowe chyba dramy, to co do mnie, trochę zaczęło przemawiać albo myślenie, bo może to też taka kwestia od razu próbowania rozwiązać problemu, jakbyśmy dalej poszli w ten kierunek sędziego, który…
który jest tak naprawdę sztuczną inteligencją, to patrząc na te obecne generacje modeli, oni pomijają właśnie halucynacje. No to oni też dochodzili do wniosku często, że jeden model na przykład powinien nadzorować drugi model albo się weryfikować i tego sposób usprawniać. Wiadomo, że dalej może to nie być idealne, tylko to też…
To strasznie dużo wychodzi tych zmiennych, które prawdopodobnie nigdy ta jedna lub druga strona nie będzie usatysfakcjonowana. Ale wydaje mi się, że koniec końców mogłoby być obiektywnie, ten system mógłby być bardziej sprawiedliwy niż obecnie teraz, który jest często różnej maści zależności od kraju i układu politycznego i tak dalej.
Wojtek (24:35) Ok, natomiast ja wrócę właśnie do tego, jeżeli świadczymy jakąś usługę, to powinniśmy ją świadczyć na najwyższym poziomie.
Grzegorz Luptowski (24:43) Tylko pytanie czy jeśli rozumiemy przestrzeganie prawa i weryfikację tego prawa jako usługę to być może ja sąd traktuję jako pewne rodzaj władzy która jest wpisana w konstytucji jako władza sądownicza a władza rządzi się swoimi prawami i czy ta sztuczna inteligencja powinna przejść wtedy za nas władzę?
Wojtek (25:12) No dobra, może zostawmy te sondy. Okej.
Kamil (25:15) To nie
jest idealny przykład, bo to jest utopijna i daleko idąca mi się wydaje przyszłość. Nie wiem czy ludzie by byli w stanie oddać tym momencie taką kontrolę.
Grzegorz Luptowski (25:35) No właśnie, chciałbym nawiązać, ludzie nie są w stanie oddać procesu wyborczego, gdzie technologicznie jesteśmy już od wielu lat w stanie to zrobić, To dalej chodzimy do urn wyborczych wrzucając kartki. Mówię tutaj o naszym kontekście europejskim, polskim, o polskiej sprawie. Więc zakładam, że tak ważna sprawa dla społeczeństwa, władza sądownicza, to jeszcze większy problem niż te wybory. A nie potrafimy sobie poradzić z wyborami odnośnie…
digitalizacji tego procesu.
Wojtek (26:08) To inne pytanie zupełnie. Kto powinien być odpowiedzialny za błędne decyzje algorytmu? Twórca, użytkownik czy nikt tak naprawdę? Nie wiem, w kontekście np. autonomicznego samochodu.
Grzegorz Luptowski (26:22) Nikt. Ja uważam. Bo zawsze każdy się obroni. Jeden zwali na drugiego, drugi zwali na tego pierwszego. I będzie takie przepychanie piłeczki. Więc… No to jest ciężki temat. Wydaje mi się, że… Big techy i ludzie, którzy tworzą modele tak zaawansowane…
zabezpieczą się na takie ewentualności w regulaminach swoich i będą starali się przerzucić wszystko na użytkowników więc bardziej po stronie odpowiedzialności będzie szło w kierunku użytkownika natomiast będą na dużo sporów się pojawi jeśli będzie samochód autonomiczny
To będzie wypadek i będzie proces. Będą jakieś dyskusje na ten temat. No i tak naprawdę czy ten użytkownik będzie winny? No nie, bo on nie prowadził fizycznie tego samochodu, ale podjął decyzję, tam wsiadł. To by trzeba było regulować też w jakiś sposób. No właśnie. To ja bym mógł podjąć decyzję.
Wojtek (27:35) No ale nawet kierownicy nie miał.
Kamil (27:40) Ale to właśnie pytanie
czy rozmawiamy o użytkowniku, który kupił ten pojazd, czy faktycznie tylko wynajął to na czas jazdy, jakaś taksówka. Ale mi się daje, że każdy przypadek jest indywidualny. Tutaj też nie widzę, żeby to można było jakoś skwantyfikować, że jest albo tak, albo tak.
Tak samo wiem, że dużo spraw Tesla ma o jakieś złe kwalifikacje obiektów powiedzmy na drodze i przez to doprowadzenie do wypadku, a tak samo są ludzie, którzy po prostu ewidentnie nie mogli powiedzmy przeciwdziałać temu, co się działo na drodze na przykład spali i też doprowadzili przez to. to podejrzewam, że są takie przypadki, które.
Może być winna jedna i druga strona, więc to jest. Czyli. ktoś będzie, ale to podejrzewam, że to jest na drodze sądowej wtedy, wiesz, ja wiem, że zdaniem, czyli to jest nie jesteś w stanie rozstrzygnąć 0 jedynkowo, przynajmniej w pierwszym odruchu. Pytanie czy z tego powstanie precedens, gdzie w następnym przypadku zostanie to rozwiązane w ten sposób. To też zależy oczywiście od kraju, ale jest to.
Grzegorz Luptowski (28:41) Czyli nikt, ubezpieczyciel się cieszy.
Kamil (29:07) Bardzo niefortunny przypadek, ale dosyć trudny.
Wojtek (29:15) No dobrze, a z takiego praktycznego teraz podejścia czy transparentność modelu to już jest wystarczająco, żeby móc ocenić etykę tego modelu.
Grzegorz Luptowski (29:31) Transparentność masz na myśli dostęp do informacji jakich danych użyto i jak wyglądał proces, tam zmienne wchodziły w skład tego uczenia.
Myślę, że częściowo można ocenić tę etykę i gdzie twórca miał zamysł tworząc ten model i ucząc go. Nie sądzę, że ktoś coś tworzy z pobudek złych. Jeśli ktoś coś robi, model ogólnodostępny, to raczej, żeby coś usprawnić i na pewno twórcy nie chcą źle. Potem ktoś może chcieć go używać w inny sposób.
to już jest etyka tego użytkownika. Natomiast można ocenić. Można ocenić na pewno tą etyczność i założenie moralne. Tylko właśnie pytanie. Ja uważam, że dążymy żeby ulepszać cały czas tą sztuczną inteligencję i żeby tą świadomość jej nadać w jakiś sam sposób. Więc
No jeśli ja chciałbym powrócić do tego wątku replikacji się i zdolności do samotworzenia, samoudoskonalania się przez te sieci neuronowe, które gdzieś tam są zaimplementowane, no to wtedy już ta moralność będzie rozmyta. No bo początkowo może było dobrze, ale model już sobie sam kierunek wyznaczył w inny sposób. Więc no…
osadzone, jeśli mówimy o osadzonym kontekście teraźniejszym to myślę, że dużo modeli powstało żeby żeby coś usprawnić, ulepszyć, czyli z dobrych pobudek nawet finansowych, żeby gdzieś tam lepiej usprawnić procesy firm biznesowych to jest fajne natomiast boję się, że z tego dobrego powstań coś złego później to jest taki mój fatalizm
Kamil (31:40) To zależy od tego, że jeżeli to jest maszynowego uczenia stworzony pod dedykowany algorytm, żeby rozwiązywał sprawy, to nie możemy dalej go traktować jakaś whiteboard, ale możliwe, że jesteśmy w stanie jego ramy wywnioskować.
Jeśli chodzi o obecne generatywne modele, to nie jest to stanie. Jest to czarna strzyńcza, która jest tak duża, że możesz założyć, a w końcu pójdzie to w inną stronę niż przewidziałeś.
Po przetrenowaniu siedzą w takiej lodówce i są dodatkowo Nie jest to moim zdaniem możliwe, żeby go zabezpieczyć na tym etapie. Przynajmniej nie z ludzkim inputem.
Grzegorz Luptowski (32:59) No dobra, teraz się szybko odniosę do tego właśnie o tych dużych modelach. Pozobaczmy co się działo na Twitterze. W pewnego czasu jak właśnie ta smycz została przez chwilę spuszczona, mówiąc brzydko. I tam już zaczęły się brzydkie podjazdy pod celebrytów, pod polityków. Więc no… Trochę za chamow może…
Coś jest przykryte to nie znaczy, że tam w środku nie istnieje. Ta negatywność, więc to jest też ta obawa właśnie. Tu się zgadzam z Kamilem, że ta kontrola i to zamknięcie w luzce jest ważne, ale i tak nie mam na to wpływu jak to wyjdzie. Ktoś znajdzie obejście albo zostanie to po prostu spuszczone ze smyczy, bo ktoś tam w wielkiej firmie sobie tekst zdecydował i tyle. I cały świat potem na to patrzy.
Jak patrzy to spoko, gorzej jak jest skrzywdzony.
Kamil (33:56) Hmm.
Jeszcze pociągnę ten temat, bo jeżeli byśmy wywali kontekście samech danych, to może byśmy byli w stanie to odręniczyć albo znowu jakieś ramy włożyć. Ale to na ogół kończy się wielką macierzą, która troszkę się zmieni tu i tam i nagle stwierdzi, że te dane miały znaczenie.
Wpadł model, który się już nie szczypie w język. Z jednej strony jest to bardzo zabawne, z drugiej strony zaczyna być to przerażające.
Wojtek (34:44) Znaczy tak, tylko ten model był nauczony na danych pochodzących od ludzi, czyli jest tacy jacy my jesteśmy,
Kamil (34:54) No tak, ale możesz go dotwikować. Wiem, że są już modele teraz obecne, które mogą wagi zmieniać w trakcie nawet uszytkowaniu. To pewnie rodzi kolejny poziom złożoności, kolejny poziom zagadnień etycznych, gdzie to może nas doprowadzić. Ale już nawet jeżeli mamy problem z takim dosyć statycznym modelem, ja bym z ręką na sercu nie był w stanie powiedzieć, że tak.
To jest model, wie co to dobre, a co to złe. Tak jak ludzie, my też mamy z tym duży problem.
Grzegorz Luptowski (35:34) Tak, tylko uwzględnijmy jeszcze jedną rzecz, teraz jest taki trend nawet, że modele potrafią się ze sobą komunikować w jakiś tam sposób. Są próby, rozmowy między dwoma modelami, więc zostaj na przeszkodzie, żeby jeden od drugiego się nauczył tych złych rzeczy. Nawet jeśli był w jasnym, konkretnym celu trenowany, na ładnych, świetnych danych.
załóżmy, nie wiem, biblijnych, jakichkolwiek, a potem podepniemy dwa takie modele z innym, no to przesiągną różnymi danymi, więc to też jest niebezpieczeństwo takie, że te dane są właśnie wprowadzane w sposób niekontrolowany trochę.
Kamil (36:30) Wiem, że na poziomie kontekstu rozmawialiśmy, więc nie widzę problemu. Czyści się okno i model startuje z tego co na początku został nauczony. Jeśli jest to wyższym levelu, to model może te wagi zmienić poprzez rozmowę z innym modelem. Nie słyszałem tych…
razie, nie tyle się, jeszcze na tyle głęboko nie wszedłem w tematykę, to bym był faktycznie tym bardziej zaniepokojony. Ale na takim poziomie użytkowym, nie coś jednego, to jest do jakiegoś stopnia resetowalne, tak bym powiedział. Tylko pytanie, czy ten podstawowy model jest na tyle bezpieczny, to jest clue.
Grzegorz Luptowski (37:26) Znaczy, wiesz, bardziej chodzi w ten kontekst rozmowy, ale załóżmy, że mamy podpiętego agenta do Xa, który generuje Ci jakieś odpowiedzi z czata GPT. Natomiast ten czat Xowy uczy się na podstawie wypowiedzi użytkowników. No to już mamy w jakiś sposób wprowadzone dane, To jest jakby taka furtka na przykład.
Kamil (37:50) To też można poprzeć.
Grzegorz Luptowski (37:55) która może gdzieś zaistnieć. Jeśli mówisz o komunikacji samych modeli, to szczerze ja też nie wiem. Jakby nie czytałbym na ten temat.
Kamil (38:04) A to mówisz na
poziomie uczenia się, Jako input danych.
Wojtek (38:10) Dobra, zmieniając trochę temat, to tutaj tak mi przyszło w trakcie tej rozmowy, ok, to nie etyka już samych modeli, a etyka w koło AI, czyli na przykład…
Nie tyle czy etyczne jest zastępowanie grafików komputerowych AI-em, ale czy np. my ludzie, żeby się chronić troszeczkę tak hipotetycznie, nie powinniśmy wymagać tego, żeby prace wygenerowane przez AI były jakoś jasno oznaczane.
to w oglemasz sens.
Kamil (38:50) Ale czy
przecież to już nie jest zreglowane przez AI-Akt? Albo, czy chyba 2027 ma w pełni wejść tak, ale przynajmniej w Unii Europejskiej to co ty do czegoś nawiązuje, wydaje mi się, że będzie regulowane już albo ma być regulowany.
Wojtek (39:09) Pytam o wasze zdanie. Czy tak naprawdę dla was nie ma znaczenia kto wygenerował graficzkę? Czy ten filmik?
Grzegorz Luptowski (39:21) Dla mnie ma Dla mnie ma, że powinno być oznaczone To na pewno będzie ciężkie do osiągnięcia, ponieważ Ktoś by musiał to kontrolować Więc myślę, że taka forma kontroli w internecie nigdy do bliszy nie sprawdzała Dlatego będzie to ciężkie do zrobienia Chciałbym Ponieważ gdzieś nad tą jakością
treści i chciałbym żeby zostało gdzieś tam popełnione coś takiego że jest ta kontrola i żeby nie było spadku tej jakości treści natomiast wiem że to będzie ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko ciężko
Nie wiem, wolę słuchać muzykę wytworzoną przez człowieka niż przez AI. Dlaczego? Dlatego, że ktoś włożył w to emocje, opowiada swoją historię. Gdzieś tą całą swoją pracę artystyczną i tą sztukę, nie wiem, ktoś namalował obraz z jakich pobudek, bo coś odczuł, bo coś widzi w taki sposób, bo coś chce przekazać. I w tym wszystkim jest człowiek. Ja uważam, że sztuka powinna być dla ludzi.
i wiadomo, że robimy tam sztukę wytworzenia obrazu przez sztuczną inteligencję, muzykę przez sztuczną inteligencję ale ja w tym nie widzę człowieka możemy się okłamywać, ja chcę zobaczyć ktoś, kto za tym stał jako miał historię i uważam to za jedną część tej sztuki właśnie ten człowiek
Wiem, że ludzie mogą się tym niektórzy nie zgadzać, ale dla mnie jest tak wygląda sztuka po prostu, że mogę pewien obraz, pewną twórczość do kogoś przypisać, utożsamić się z nim, z jego emocjami na przykład, bo nie wiem, mieliśmy podobny życiorys albo podobną sytuację w życiu i to nas połączyło i nie wiem, patrząc na ten obraz przypominam sobie o tej sytuacji na przykład. I tym jest dla mnie sztuka, ale jeśli dla kogoś sztuką jest…
sam obraz wytworzony przez dużo inteligencję, bo coś w tym widzi, ja z tym nie będę dyskutował. Wszystko jest dla ludzi. Tylko dla mnie osobiście nie.
Kamil (41:57) Ja bym tylko powiedział, że właściwą odpowiedzią jest tak, chciałbym żeby było to. Ale wydaje mi się, że to jest niestety utopijne. Pieniądz na to nie pozwoli. Czy ludzie powiedzą temu nie? Wydaje mi się, że też nie, bo będą tacy, którzy będą szybciej iterować przez to i stwierdzą, że a tamci co nie będą tego robić zostaną w tyle.
Wszyscy zaczną to robić i każdy nie będzie na to zwracał uwagi. Chyba, że będzie to w jakiś sposób mocno konserwentnie przez prawo regulowane. to też jest tak, właśnie z tym A jak powiedziałem, wydaje mi się, że to ma być, z tego co pamiętam, to powinno być przynajmniej w Europie, ale pytanie znowu się, na ile będzie zegwowane to, że to jest albo nie ma.
i czy firmy, które tego nie będą przestrzegać, w jakiś sposób zostaną podciągnięte. Z tego co widziałem, kary są do 7 % dochodów nawet. czy to będzie w jakiś sposób wydrukowane, to też jest o tyle ciekawe zagadnienie, że to jest tak szerokie, że moglibyśmy nawet, cofnąć moim zdaniem, do edukacji szkolnej w tym momencie. W jaki sposób ludzie są, powiedzmy…
nauczenie wartości i jaki sposób się zachowują w odpowiedniej sytuacji i tak dalej. I to też zależy od kraju. Tutaj taka bardzo szybka anegdota. W Japonii jak był jakiś problem, jakiś potencjalny problem z samolotem, to ludzie wyszli z rządku i nie było żadnej paniki. W innym kraju to się trochę inaczej by odbyło.
Zależy na jaki grunt to pada. Jestem raczej sceptyczny, że prędkość zmian może być tak duża, że nie będziemy w stanie tego zweryfikować w czasie i nałożyć odpowiedni rok agańca. Albo tej agańce będziemy próbowali, ale nie konsekwencję wyciągnąć z tego powodu.
A dwa ludzie też przymkną na to oko w tym momencie, bo wiedzą, że jeżeli tam się nie udało, to czemu miałby się tu udać. Jest to bardzo szerokie zagadnienie.
Grzegorz Luptowski (44:29) Tak, ja bym chciał dodać tu jedną przestrzeń, która jest według mnie niebezpieczna. Ponieważ człowiek łatwo reaguje na sztukę, na muzykę, na obraz, na dźwięk, film. I tutaj jest niebezpieczeństwo, że łatwo będzie przez wygenerowanie szybko filmu lub muzyki do danego nastroju użytkownika osiągnąć porządoną akcję, czyli na przykład
Użytkownik jest, nie wiem, smutny i na przykład wiemy po jego zachowaniu gdzieś w sieci, że jak jest smutny to lubi sobie, nie wiem, zjeść McDonalda czy coś, Jakiegoś tam fast fooda. No to szybko generujemy mu film na Netflixie, który łatwo go przekona do zamówienia tego jedzenia. I tu jest pewne niebezpieczeństwo do manipulacji, do wpływania na zachowania ludzi.
Wiem, że to jest daleko idąca teza jak na dzisiejsze czasy, ale nie sądzę, że nie niemożliwa do osiągnięcia, więc jest tutaj pewne niebezpieczeństwo, bo duże korporacje mają dane do naszych metadanych w przeglądarkach, jeśli użytkownik nie jest świadomy, a myślę, że większość społeczeństwa nie dba o swoje metadane w sieci. No to w łatwy sposób już można takie wiadomości, filmy, dźwięk…
w radiu, gdziekolwiek, jeśli mamy jakieś, wiem, swoją aplikację do muzyki wygenerować coś takiego do jego ulubionej playlisty czy coś. Więc no, tutaj moje pytanie, może nie pytanie, moja obawa jest otwarta i się o to boję, że tak może to pójść w tą stronę. Niestety, że to zostanie wykorzystane jeszcze, że ma potencjał reklamowy i manipulacyjny do sterowania trochę ludźmi.
Kamil (46:26) Ja bym też jeszcze rozszerzył to, bo to jest… Zjedziemy troszeczkę, ale wydaje mi że dalej w tym kontekście jest… Mnie to trochę przeraża obecnie, że ta granica się przesuwa tego… Przez przykład ku prywatności. Akceptujemy pewne rzeczy już teraz, które mi się wydaje, że 10-20 lat temu były kompletnie nieakceptowalne albo w ogóle przyzwalamy na nie. I tutaj właśnie nawiązując do tych…
To jest coś takiego, faktycznie w fenomencie ludzie nie będą się przyjmować. Nie pamiętam, to też bardzo mocno odjadę, ale Google Glass było takie urządzenie i ono powiedzmy upadło przez to, że zaczęły pojawiać się nawet…
To są francusko pierwsze restauracje, które nie życzyły sobie, że ktoś z takim urządzeniem może wejść do tego, do takiej restauracji. to, ludzie po prostu byli wyczuleni na poziomie swojej prywatności. I teraz na przykład ostatnio, to ostatnio dwa, trzy miesiące, dwa miesiące temu chyba, miesiące temu, była wielka konferencja też może z małą wtopą mety z nowymi okularami, gdzie mam wrażenie, że…
Ta dyskusja na temat prywatności była dużo lżejsza, albo w ogóle prawie nie była, względem tego, co by było 10-20 lat temu. To mnie trochę przeraża, bo to urządzenie jest napakowane niepotyczną ilością, niepotycznie więcej danych potrafi zebrać niż takie Google Glass kiedyś. A ludzie są w stanie to zaakceptować w imię własnego komfortu, w imię tego, że będą…
Mieli przewagę nad innymi, krótko mówiąc. Takie urządzenie może do tego doprowadzić. Może być kolejnym smartfonem. To zaakceptujemy. W tym momencie nie będzie odwrotu. Czy to jest etyczne czy nie? Po prostu wszyscy wsiądą w teren pociągu.
Wojtek (48:45) Grzegorz, coś jeszcze na koniec?
Grzegorz Luptowski (48:49) Nie no zgadzam się tu z Kamilem, że ludzie łatwo oddają tę prywatność dla własnego komfortu, ale mnie to też niepokoi, tutaj się podpisuje po prostu i nie mam nic więcej do dodania w tej sprawie, to jest niepokojące.
Wojtek (49:06) Znowu tak patrząc po nas temat na pewno nie jest wyczerpany tylko liźnięty. jak przejdziemy na formułę pięciogodzinnych odcinków to może wtedy się uda. Ja za dzisiaj dziękuję.
Grzegorz Luptowski (49:24) Dzięki.
Kamil (49:25) Dzięki
Wojtek (49:27) i do usłyszenia Panowie.
Wojtek (49:37) Dziękuję wszystkim, którzy dotarli aż tutaj. Jak już mówiłem w intro, etyki w AI, temat AI czy temat etyki jest to bardzo obszerny temat. Wczuliśmy się tak bardzo, że pominęliśmy dość gorący temat raportu Deloitte, gdzie tak znana firma za dość grube pieniądze dostarczyła rządowi Australii raport, w którym okazało się, że jest bardzo dużo halucynacji modelu.
No i to trochę tak coś nie halo, natomiast my o tym nie mówiliśmy za bardzo w tym odcinku, więc tutaj ja już nie będę drążył tego tematu. Załączam linki do dwóch artykułów, z których dowiecie się dużo więcej w temacie. Zachęcam do przeczytania, no bo temat jest bardzo ciekawy. Tak znana, tak poważna firma.
zrobiła coś takiego pytanie na ile świadomie i w ogóle no tutaj wiadomo, że tego się zapewne nigdy tak naprawdę nie dowiemy, bo nawet to co jest gdzieś napisane to czy można w to wierzyć tak do końca. Jeżeli chodzi o formułę dyskusji w grupie to zaczęliśmy już rozmowę z chłopakami o tym, że należy coś delikatnie zmienić. Jeden z nich powiedział, że o AI to moglibyśmy tak gadać w nieskończoność generalnie.
Ale gadanie z sensem to na dzień dzisiejszy chyba nam się już tak troszeczkę wyczerpało. Znaczy nie chcielibyśmy iść w ten ogólny trend na siłę bycia domorosłym ekspertem AI w zakresach, których się powiedzmy sobie no tymi ekspertami nie jesteśmy. Może nie to, że się totalnie nie znamy. Więc opracowujemy troszeczkę inną fabułę troszeczkę inną formułę troszeczkę bardziej opartą może o
jakiś konkretny background danego odcinka, ale o tym dowiecie się w swoim czasie. Przypominam, że transkrypcję tego odcinka znajdziecie na hospoda.tech.pl Za tydzień porozmawiam z Szymonem Jędnickim, ekspertem od spraw komunikacji o komunikacji w erze AI. tutaj podcastowo zostajemy cały czas w tematyce.
i staramy się jego poruszyć od różnych stron. Jeżeli jesteście ciekawi tego, co będzie dalej, zasubskrybujcie podcast w aplikacji, w której mnie słuchacie. Jeśli jest to możliwe, dajcie lajka, zostawcie komentarz, wystawcie ocenę. Będzie to dla mnie bardzo duża motywacja do tworzenia, do dalszego tworzenia tego podcastu. Przypominam również, że można zapisać się na newsletter na stronie hospoda.tech, a
Profile podcastu możecie znaleźć na Facebooku, Iksie czy Blue Sky App. Dziękuję za dzisiaj i do usłyszenia.
- Category:
- Dyskusje