ChatGPT narozrabiał, a OpenAI dostało pozew o zniesławienie

Krzysztof Żołyński
2023/06/10 18:30
9
1

Można powiedzieć, że była to tylko kwestia czasu. Jest pozew o zniesławienie dla OpenAI.

OpenAI stoi w obliczu pozwu o zniesławienie złożonego przez Marka Waltersa, który twierdzi, że został fałszywie oskarżony o defraudację pieniędzy należących do grupy, walczącej o prawo do posiadania broni.

ChatGPT narozrabiał, a OpenAI dostało pozew o zniesławienie

W pozwie napisano, że ChatGPT jest winny zniesławienia i że system sztucznej inteligencji miał „halucynacje” i generował fałszywe informacje o Waltersie. Jego adwokat, John Monroe, powiedział, że oprogramowanie zmyśliło całą historię o jego kliencie.

Okazuje się, że dziennikarz Fred Riehl pomyślał, że zaoszczędzi trochę czasu podczas relacjonowania sprawy sądowej i poprosił ChatGPT o podsumowanie zarzutów w skardze i podał ChatGPT adres URL prawdziwej skargi w celach informacyjnych.

ChatGPT narozrabiał, a OpenAI dostało pozew o zniesławienie

Sprawa, o której pisał Riehl, została wniesiona przez zrzeszenie kilku grup zajmujących się prawami do posiadania broni przeciwko biuru prokuratora generalnego w Waszyngtonie, oskarżając urzędników o „niekonstytucyjne działania odwetowe”, między innymi podczas dochodzenia w sprawie grup i ich członków i nie miała nic wspólnego z finansami.

GramTV przedstawia:

Kiedy Riehl poprosił o podsumowanie, zamiast zwrócić dokładne informacje, ChatGPT wplątał nazwisko Marka Waltersa w fikcyjną sprawę nadużyć finansowych. W fałszywej odpowiedzi udzielonej przez ChatGPT Riehlowi można było wyczytać, że Walters był skarbnikiem i dyrektorem finansowym SAF i twierdził, że „zdefraudował i sprzeniewierzył jej fundusze i aktywa”. ChatGPT wymyślił nawet numer nieistniejącej sprawy.

Walters domaga się odszkodowania i honorariów adwokackich.

Komentarze
9
Fun_g_1_2_3
Gramowicz
14/06/2023 18:21
dariuszp napisał:

Ale mówimy o dwóch odrębnych sytuacjach. Dana osoba zapytała o coś czat i dostała kłamstwa na temat tej osoby. Gdybyś poszedł i zadał podobne pytanie to byś też dostał te kłamstwa.

Na chwilę by zrozumieć mój argument wyobraź sobie że nie ma dziennikarza. Po prostu ktoś w internetach napisał że AI opowiada że jestem kryminalistą i spora grupa osób poszła tam o mnie zapytać i dostała te same kłamstwa które teraz krążą po internecie na mój temat.

Winnym będzie w tym momencie AI bo rozpowszechnia kłamstwa. Nie człowiek zadający pytanie. Ten koleś co opublikował kłamstwa też jest winny ale to osobny przypadek.

Fun_g_1_2_3 napisał:

Z tym automatycznym samochodem to tu trochę nietrafione porównanie. Byłoby trafne gdyby ChatGPT samodzielnie wymyślał i publikował treści, ale ten nie ma takiej możliwości. SI działało z polecenia człowieka i to człowiek opublikował ten tekst.

Tylko, że pozostaje kwestia tego czy faktycznie AI wygeneruje ponownie tą samą odpowiedź. W sieci jest wiele informacji o tym, że ChatGPT nie generuje za każdym razem tych samych odpowiedzi. Nie musi też za każdym razem wygenerować tej samej odpowiedzi dla tej samej osoby na to samo pytanie.

Odbijmy piłeczkę - nie ma żadnego dziennikarza. Ktoś w internecie napisał, że AI opowiada że jesteś kryminalistą i spora grupa osób poszła tam zapytać o ciebie i nie dostała żadnego potwierdzenia, a drążąc temat otrzymali odpowiedź, że AI nie ma żadnych informacji o tobie.

Faktem jest to, że winne byłoby AI gdy rozpowszechniało informacje i za to odpowiedzialny byłby jego twórca. Czy możemy jednak mówić o tym samy gdy rozpowszechnianie nie wystąpiło? Faktem jest tylko to, że dziennikarz rozpowszechnił fałszywe informacje, a AI nie miało tu nic do tego poza faktem ich wygenerowania.

dariuszp napisał:

Tyle że w wypadku czatu nie ma człowieka który czyta i weryfikuje jego treści zanim mnie je pokaże. Więc porównanie nie trafione. Zgadza się że przy tym co zrobił koleś który opublikował kłamstwa to koleś jest winny. Ale to nie zwalnia czatu z winy za powtarzanie kłamstw na kogoś temat.

Tak samo w przypadku automatycznego samochodu z kierowcą za kierownicą. Nie ważne jest to, że działał automat skoro kierowca wolał obserować jak człowiek wpada pod samochód zamiast nadepnąć na hamulec i do tego nie dopuścić. Identycznie dziennikarz miał możliwość zweryfikowania czy wygenerowana przez ChatGPT osoba faktycznie pojawia się w treści zarzutów, ale tego nie zrobił.

Może faktycznie nie do końca trafione porównanie... Nie zmieni to jednak faktu jak to że AI generuje czasami fałszywe odpowiedzi i nie jest jakaś wiedza tajemna. Nadal pozostaje kwestia tego czy informacja z której facet skorzystał jest powielana w kolejnych odpowiedziach od AI w co wątpie. To tak jakbym ja opublikował informacje, że kogoś zabiłeś powołując się na moje źródło czyli sąsiada. Ty odnajdujesz wskazanego sąsiada, a ten nie ma pojęcia o co ci chodzi i nic nie wie na ten temat. Nawet jeśli ja wiem gdzie faktycznie leży wina to ostatecznie i tak ja ponoszę winę za rozpowszechnianie.

dariuszp napisał:

Kompletnie nietrafione porównanie.

Fun_g_1_2_3 napisał:

To trochę tak jakby pozwać producenta broni palnej bo ktoś zginął gdy jakiś człowiek pociągnął za spust gdy broń była odbezpieczona i naładowana. Od razu przypomina mi się filmik z sieci sprzed lat gdzie facet na własnym weselu bierze od teścia pistolet, przykłada go sobie do skroni (na co teść reaguje sprzeciwem) po czym ciągnie za spust i upada jak kłoda. Kto tu ponosi odpowiedzialność? Teść, "samobójca" czy producent broni?

Żadne AI nie jest jeszcze na tyle zaawansowane by zastąpić nas w pracy. ChatGPT służby bardziej wspomaganiu przy pracy, a nie wykonywania jej za człowieka. Sam nawet kilka razy z takiego wspomagania skorzystałem!

Idąc dalej tym tokiem myślenia gdzie powszechną, nieukrywaną przez twórców wiedzą jest to, że AI napotykając problem generuje fałszywe informacje to możemy mówić o niewłaściwym skorzystaniu z "narzędzia" jakim jest ChatGPT. W tym kierunku zrobiłem to porównanie - broń też nie służy do popisów i strzelania sobie w głowę.

dariuszp napisał:

Nie ma to nic do tematu.

Fun_g_1_2_3 napisał:

Jest taka jedna zasada obowiązująca chyba na całym świecie - niewiedza nie zwalnia z odpowiedzialności.

Zależy jak na to spojrzysz. Jeżeli ChatGPT może wygenerować fałszywe informacje i jest to wiedza powszechna, a dziennikarz o tym nie wiedział lub to zignorował to nie ma co się doszukiwać winy programu, albo jego twórcy. Facet mógł zweryfikować informacje i nie musiał ich bezsensownie publikować podając je za prawdziwe. Nie ma sensu doszukiwać się tu winy twórców AI. Co innego gdyby udostępnili dane narzędzie jako wiarygodne i bezbłędne, ale każdy wie, że tak nie jest.

dariuszp
Gramowicz
14/06/2023 09:13
Fun_g_1_2_3 napisał:

Z tym automatycznym samochodem to tu trochę nietrafione porównanie. Byłoby trafne gdyby ChatGPT samodzielnie wymyślał i publikował treści, ale ten nie ma takiej możliwości. SI działało z polecenia człowieka i to człowiek opublikował ten tekst.

Ale mówimy o dwóch odrębnych sytuacjach. Dana osoba zapytała o coś czat i dostała kłamstwa na temat tej osoby. Gdybyś poszedł i zadał podobne pytanie to byś też dostał te kłamstwa.

Na chwilę by zrozumieć mój argument wyobraź sobie że nie ma dziennikarza. Po prostu ktoś w internetach napisał że AI opowiada że jestem kryminalistą i spora grupa osób poszła tam o mnie zapytać i dostała te same kłamstwa które teraz krążą po internecie na mój temat.

Winnym będzie w tym momencie AI bo rozpowszechnia kłamstwa. Nie człowiek zadający pytanie. Ten koleś co opublikował kłamstwa też jest winny ale to osobny przypadek.

Tak samo w przypadku automatycznego samochodu z kierowcą za kierownicą. Nie ważne jest to, że działał automat skoro kierowca wolał obserować jak człowiek wpada pod samochód zamiast nadepnąć na hamulec i do tego nie dopuścić. Identycznie dziennikarz miał możliwość zweryfikowania czy wygenerowana przez ChatGPT osoba faktycznie pojawia się w treści zarzutów, ale tego nie zrobił.

Tyle że w wypadku czatu nie ma człowieka który czyta i weryfikuje jego treści zanim mnie je pokaże. Więc porównanie nie trafione. Zgadza się że przy tym co zrobił koleś który opublikował kłamstwa to koleś jest winny. Ale to nie zwalnia czatu z winy za powtarzanie kłamstw na kogoś temat.

To trochę tak jakby pozwać producenta broni palnej bo ktoś zginął gdy jakiś człowiek pociągnął za spust gdy broń była odbezpieczona i naładowana. Od razu przypomina mi się filmik z sieci sprzed lat gdzie facet na własnym weselu bierze od teścia pistolet, przykłada go sobie do skroni (na co teść reaguje sprzeciwem) po czym ciągnie za spust i upada jak kłoda. Kto tu ponosi odpowiedzialność? Teść, "samobójca" czy producent broni?

Kompletnie nietrafione porównanie.

Jest taka jedna zasada obowiązująca chyba na całym świecie - niewiedza nie zwalnia z odpowiedzialności.

Nie ma to nic do tematu.

Fun_g_1_2_3
Gramowicz
13/06/2023 18:21

dariuszp napisał:

Ale mnie jako przeciętnego zjadacza chleba nie obchodzi dlaczego Twój program kłamie na mój temat wymieniając mnie z imienia i nazwiska. Nie ma też powodu dla którego miałby tak kłamać. Dla mnie to jest typowa usterka albo celowe działanie i jesteś za to odpowiedzialny bo to Twój program.

Podobnie jak np. automatyczny samochód by kogoś rozjechał. To co? Nikt nie jest winny bo to automatyczny kierowca rozjechał? A może winny jest samochód bo tak został zaprojektowany? Nie. Winę za czyjąś śmierć ponosi firma która stworzyła samochód i ludzie którzy ją prowadzą. A jeżeli byli świadomi że ten samochód może kogoś rozjechać to powinni trafić do więzienia podobnie jak trafiają jak im udowodnisz że wiedzieli o szkodliwości np. produktu spożywczego.

Yosar napisał:

Nie. Jeśli program z natury zmyśla, bo tak został zaprojektowany i jest o tym informacja przy jego używaniu, to jak pozywać producenta noży że nóż jest ostry. On ma być ostry. Program ma zmyślać bo tak został zaprojektowany. To tylko medialna hopla zrobiła z niego jakieś wszechwiedzące monstrum czy encyklopedię świata. Ani na jedno ani na drugie się nie nadaje.

Z tym automatycznym samochodem to tu trochę nietrafione porównanie. Byłoby trafne gdyby ChatGPT samodzielnie wymyślał i publikował treści, ale ten nie ma takiej możliwości. SI działało z polecenia człowieka i to człowiek opublikował ten tekst. Tak samo w przypadku automatycznego samochodu z kierowcą za kierownicą. Nie ważne jest to, że działał automat skoro kierowca wolał obserować jak człowiek wpada pod samochód zamiast nadepnąć na hamulec i do tego nie dopuścić. Identycznie dziennikarz miał możliwość zweryfikowania czy wygenerowana przez ChatGPT osoba faktycznie pojawia się w treści zarzutów, ale tego nie zrobił. To trochę tak jakby pozwać producenta broni palnej bo ktoś zginął gdy jakiś człowiek pociągnął za spust gdy broń była odbezpieczona i naładowana. Od razu przypomina mi się filmik z sieci sprzed lat gdzie facet na własnym weselu bierze od teścia pistolet, przykłada go sobie do skroni (na co teść reaguje sprzeciwem) po czym ciągnie za spust i upada jak kłoda. Kto tu ponosi odpowiedzialność? Teść, "samobójca" czy producent broni?

Jest taka jedna zasada obowiązująca chyba na całym świecie - niewiedza nie zwalnia z odpowiedzialności

dariuszp
Gramowicz
12/06/2023 10:36
Yosar napisał:

Nie. Jeśli program z natury zmyśla, bo tak został zaprojektowany i jest o tym informacja przy jego używaniu, to jak pozywać producenta noży że nóż jest ostry. On ma być ostry. Program ma zmyślać bo tak został zaprojektowany. To tylko medialna hopla zrobiła z niego jakieś wszechwiedzące monstrum czy encyklopedię świata. Ani na jedno ani na drugie się nie nadaje.

Ale mnie jako przeciętnego zjadacza chleba nie obchodzi dlaczego Twój program kłamie na mój temat wymieniając mnie z imienia i nazwiska. Nie ma też powodu dla którego miałby tak kłamać. Dla mnie to jest typowa usterka albo celowe działanie i jesteś za to odpowiedzialny bo to Twój program.

Podobnie jak np. automatyczny samochód by kogoś rozjechał. To co? Nikt nie jest winny bo to automatyczny kierowca rozjechał? A może winny jest samochód bo tak został zaprojektowany? Nie. Winę za czyjąś śmierć ponosi firma która stworzyła samochód i ludzie którzy ją prowadzą. A jeżeli byli świadomi że ten samochód może kogoś rozjechać to powinni trafić do więzienia podobnie jak trafiają jak im udowodnisz że wiedzieli o szkodliwości np. produktu spożywczego.

Bo to tylko program komputerowy z mnóstwem ograniczeń. Równie dobrze mógłbyś pozwać producentów/deweloperów gry bo ci się wydaje, że użyli twojego konkretnego imienia i nazwiska, a nie jakiegoś imienia i nazwiska, które akurat odpowiada twojemu.

Ale tokładnie to się dzieje. Aktorzy regularnie się biją z twórcami gier. Przykładem jest Sony, The Last of Us i Ellen Page. Dlatego wygląd Ellie się zmienił przed wydaniem gry. Postać była zbyt podobna do aktorki.

(...)

Natomiast wina dziennikarza jest bezsporna. To on opublikował fałszywe info relacjonując konkretną sprawę. Na tej samej zasadzie na której jego wina byłaby bezsporna jakby opublikował info od swoich informatorów, a ono okazałoby się nieprawdziwe. Nikt nie ciągałby po sądach informatorów, bo prywatnie możesz sobie mówić co chcesz.

No to jasne. Na koniec dnia dziennikarz powinien zweryfikować informacje które posiada. Tylko problem czatu po ukaraniu dziennikarza pozostaje bo czat dalej będzie rozpowszechniał te kłamstwa.

A to, że 'dziennikarze' w dzisiejszych czasach uważają że za nic nie odpowiadają to inna para kaloszy.

Bo znaleźli coś w internecie albo na fejsbuku.

Tak to dzisiaj działa. Ludzie wszędzie biegają z serwisami społecznościowymi i kamerami w kieszeni. Więc jak cokolwiek się zdarzy - serwisy społecznościowe będą mieli informację przed dziennikarzami. Jeżeli wydarzenie jest dłuższe to dziennikarz może dotrzeć na miejsce i zebrać informacje ale w innym wypadku po prostu zbiorą z internetów to co ludzie opublikowali i opracują materiał by powiadomić o wydarzeniu.

Jedyny plus całej sprawy, że może w końcu do większości dotrze, że to nie jest żadna encyklopedia.

Znajomi zrobili sobie z jego udziałem grę o przejęcie Polski, z udziałem Robin Hooda, Batmana, Legolasa, Super Mario Bros, Harry'ego Pottera i bomby atomowej. Nosz prawdziwa kopalnia wiedzy historycznej. Od programu dostajesz dokładnie to czym go zasiliłeś.

Realia są takie że ludzie to durnie i ten epizod będzie szybko zapomniany. Nie mówiąc o tym że 99.9% społeczeństwa nawet się o nim nie dowie.

Podobny był przypadek z prawnikiem który zapytał czat o precedensy w sprawie i użył je w sądzie. Po czym się dowiedział że były zmyślone bo oczywiście któś zweryfikował numer sprawy który podał.

Jak prawnik jest zbyt głupi żeby sprawdzić to co uzyskał - nie ma szans żeby przeciętny kowalski był mądrzejszy.

Yosar
Gramowicz
11/06/2023 17:42
dariuszp napisał:

No właśnie nie. OpenAi ostrzega przed halucynacjami. Masz jasno napisane że dane nie muszą być prawdziwe. Więc oskarżenie OpenAi raczej nie przejdzie.

Wyobraź sobie że przy zadaniu pytania o najsławniejszych polskich pedofilach czat wymienił by Cię z imienia i nazwiska jako halucynacja. Jasne, wiemy o co chodzi z halucynacjami ale nie zmienia to faktu że czat opowiada bzdury na Twój temat każdemu kto zapyta coś podobnego. Mógłbyś się wkurzyć.

Także jeżeli czat opowiada kłamstwa na temat kryminalnej przeszłości tego gościa - wydaje mi się że ten może się rozmówić z OpenAi i Microsoftem. 

I osobno powinien się rozmówić z dziennikarzem który był zbyt głupi by zweryfikować to co publikuje. 

kmicic66 napisał:

Dla mnie logicznym by było oskarżenie dziennikarza o zniesławienie, a dopiero tenże dziennikarz, po ewentualnym przegraniu sprawy, mógłby pozwać OpenAI. W ten sposób każdy może nawypisywać bzdur, a winę zrzucić na OpenAI.

Nie. Jeśli program z natury zmyśla, bo tak został zaprojektowany i jest o tym informacja przy jego używaniu, to jak pozywać producenta noży że nóż jest ostry. On ma być ostry. Program ma zmyślać bo tak został zaprojektowany. To tylko medialna hopla zrobiła z niego jakieś wszechwiedzące monstrum czy encyklopedię świata. Ani na jedno ani na drugie się nie nadaje.

Bo to tylko program komputerowy z mnóstwem ograniczeń. Równie dobrze mógłbyś pozwać producentów/deweloperów gry bo ci się wydaje, że użyli twojego konkretnego imienia i nazwiska, a nie jakiegoś imienia i nazwiska, które akurat odpowiada twojemu.

Pomijam już kwestię że Janów Kowalskich w USA może być 100 tys, więc identyfikacja że na pewno chodzi o tego i tego w wymyślonej historii jest bardzo naciągana. Nie sądzę żeby program podał numer prawa jazdy powyższego osobnika w celu jego dokładnej identyfikacji.

Natomiast wina dziennikarza jest bezsporna. To on opublikował fałszywe info relacjonując konkretną sprawę. Na tej samej zasadzie na której jego wina byłaby bezsporna jakby opublikował info od swoich informatorów, a ono okazałoby się nieprawdziwe. Nikt nie ciągałby po sądach informatorów, bo prywatnie możesz sobie mówić co chcesz.

A to, że 'dziennikarze' w dzisiejszych czasach uważają że za nic nie odpowiadają to inna para kaloszy.

Bo znaleźli coś w internecie albo na fejsbuku.

Jedyny plus całej sprawy, że może w końcu do większości dotrze, że to nie jest żadna encyklopedia.

Znajomi zrobili sobie z jego udziałem grę o przejęcie Polski, z udziałem Robin Hooda, Batmana, Legolasa, Super Mario Bros, Harry'ego Pottera i bomby atomowej. Nosz prawdziwa kopalnia wiedzy historycznej. Od programu dostajesz dokładnie to czym go zasiliłeś.

dariuszp
Gramowicz
11/06/2023 12:31
kmicic66 napisał:

Dla mnie logicznym by było oskarżenie dziennikarza o zniesławienie, a dopiero tenże dziennikarz, po ewentualnym przegraniu sprawy, mógłby pozwać OpenAI. W ten sposób każdy może nawypisywać bzdur, a winę zrzucić na OpenAI.

No właśnie nie. OpenAi ostrzega przed halucynacjami. Masz jasno napisane że dane nie muszą być prawdziwe. Więc oskarżenie OpenAi raczej nie przejdzie.

Wyobraź sobie że przy zadaniu pytania o najsławniejszych polskich pedofilach czat wymienił by Cię z imienia i nazwiska jako halucynacja. Jasne, wiemy o co chodzi z halucynacjami ale nie zmienia to faktu że czat opowiada bzdury na Twój temat każdemu kto zapyta coś podobnego. Mógłbyś się wkurzyć.

Także jeżeli czat opowiada kłamstwa na temat kryminalnej przeszłości tego gościa - wydaje mi się że ten może się rozmówić z OpenAi i Microsoftem. 

I osobno powinien się rozmówić z dziennikarzem który był zbyt głupi by zweryfikować to co publikuje. 

HeosPL
Gramowicz
11/06/2023 10:19
kmicic66 napisał:

Dla mnie logicznym by było oskarżenie dziennikarza o zniesławienie, a dopiero tenże dziennikarz, po ewentualnym przegraniu sprawy, mógłby pozwać OpenAI. W ten sposób każdy może nawypisywać bzdur, a winę zrzucić na OpenAI.

Oczywiście, że tak. To Fred Riehl jest winny i kropka.Od kiedy to narzędzie, które używamy jest winne naszemu czynowi?Czy jak ktoś kogoś zastrzeli to sądzimy producentów broni?

kmicic66
Gramowicz
11/06/2023 06:59

Dla mnie logicznym by było oskarżenie dziennikarza o zniesławienie, a dopiero tenże dziennikarz, po ewentualnym przegraniu sprawy, mógłby pozwać OpenAI. W ten sposób każdy może nawypisywać bzdur, a winę zrzucić na OpenAI.

Fun_g_1_2_3
Gramowicz
10/06/2023 20:03

Czy ten artykuł nie został przypadkiem napisany przez jakieś SI? Jak program mógł narozrabiać skoro zawinił człowiek?!?

Jeżeli dobrze rozumiem to dziennikarz Fred Riehl chciał ułatwić sobie robotę, skorzystał z generatora fałszych odpowiedzi i oficjalnie to opublikował nie sprawdzając wiarygodności tekstu. Gdzie tu wina ChatGPT skoro powszechnie wiadomo, że przy braku danych ten dopisuje zawartość wedle własnego uznania?