ChatGPT narozrabiał, a OpenAI dostało pozew o zniesławienie

Krzysztof Żołyński
2023/06/10 18:30
9
1

Można powiedzieć, że była to tylko kwestia czasu. Jest pozew o zniesławienie dla OpenAI.

OpenAI stoi w obliczu pozwu o zniesławienie złożonego przez Marka Waltersa, który twierdzi, że został fałszywie oskarżony o defraudację pieniędzy należących do grupy, walczącej o prawo do posiadania broni.

ChatGPT narozrabiał, a OpenAI dostało pozew o zniesławienie

W pozwie napisano, że ChatGPT jest winny zniesławienia i że system sztucznej inteligencji miał „halucynacje” i generował fałszywe informacje o Waltersie. Jego adwokat, John Monroe, powiedział, że oprogramowanie zmyśliło całą historię o jego kliencie.

Okazuje się, że dziennikarz Fred Riehl pomyślał, że zaoszczędzi trochę czasu podczas relacjonowania sprawy sądowej i poprosił ChatGPT o podsumowanie zarzutów w skardze i podał ChatGPT adres URL prawdziwej skargi w celach informacyjnych.

ChatGPT narozrabiał, a OpenAI dostało pozew o zniesławienie

Sprawa, o której pisał Riehl, została wniesiona przez zrzeszenie kilku grup zajmujących się prawami do posiadania broni przeciwko biuru prokuratora generalnego w Waszyngtonie, oskarżając urzędników o „niekonstytucyjne działania odwetowe”, między innymi podczas dochodzenia w sprawie grup i ich członków i nie miała nic wspólnego z finansami.

GramTV przedstawia:

Kiedy Riehl poprosił o podsumowanie, zamiast zwrócić dokładne informacje, ChatGPT wplątał nazwisko Marka Waltersa w fikcyjną sprawę nadużyć finansowych. W fałszywej odpowiedzi udzielonej przez ChatGPT Riehlowi można było wyczytać, że Walters był skarbnikiem i dyrektorem finansowym SAF i twierdził, że „zdefraudował i sprzeniewierzył jej fundusze i aktywa”. ChatGPT wymyślił nawet numer nieistniejącej sprawy.

Walters domaga się odszkodowania i honorariów adwokackich.

Komentarze
9
Fun_g_1_2_3
Gramowicz
14/06/2023 18:21
dariuszp napisał:

Ale mówimy o dwóch odrębnych sytuacjach. Dana osoba zapytała o coś czat i dostała kłamstwa na temat tej osoby. Gdybyś poszedł i zadał podobne pytanie to byś też dostał te kłamstwa.

Na chwilę by zrozumieć mój argument wyobraź sobie że nie ma dziennikarza. Po prostu ktoś w internetach napisał że AI opowiada że jestem kryminalistą i spora grupa osób poszła tam o mnie zapytać i dostała te same kłamstwa które teraz krążą po internecie na mój temat.

Winnym będzie w tym momencie AI bo rozpowszechnia kłamstwa. Nie człowiek zadający pytanie. Ten koleś co opublikował kłamstwa też jest winny ale to osobny przypadek.

Fun_g_1_2_3 napisał:

Z tym automatycznym samochodem to tu trochę nietrafione porównanie. Byłoby trafne gdyby ChatGPT samodzielnie wymyślał i publikował treści, ale ten nie ma takiej możliwości. SI działało z polecenia człowieka i to człowiek opublikował ten tekst.

Tylko, że pozostaje kwestia tego czy faktycznie AI wygeneruje ponownie tą samą odpowiedź. W sieci jest wiele informacji o tym, że ChatGPT nie generuje za każdym razem tych samych odpowiedzi. Nie musi też za każdym razem wygenerować tej samej odpowiedzi dla tej samej osoby na to samo pytanie.

Odbijmy piłeczkę - nie ma żadnego dziennikarza. Ktoś w internecie napisał, że AI opowiada że jesteś kryminalistą i spora grupa osób poszła tam zapytać o ciebie i nie dostała żadnego potwierdzenia, a drążąc temat otrzymali odpowiedź, że AI nie ma żadnych informacji o tobie.

Faktem jest to, że winne byłoby AI gdy rozpowszechniało informacje i za to odpowiedzialny byłby jego twórca. Czy możemy jednak mówić o tym samy gdy rozpowszechnianie nie wystąpiło? Faktem jest tylko to, że dziennikarz rozpowszechnił fałszywe informacje, a AI nie miało tu nic do tego poza faktem ich wygenerowania.

dariuszp napisał:

Tyle że w wypadku czatu nie ma człowieka który czyta i weryfikuje jego treści zanim mnie je pokaże. Więc porównanie nie trafione. Zgadza się że przy tym co zrobił koleś który opublikował kłamstwa to koleś jest winny. Ale to nie zwalnia czatu z winy za powtarzanie kłamstw na kogoś temat.

Tak samo w przypadku automatycznego samochodu z kierowcą za kierownicą. Nie ważne jest to, że działał automat skoro kierowca wolał obserować jak człowiek wpada pod samochód zamiast nadepnąć na hamulec i do tego nie dopuścić. Identycznie dziennikarz miał możliwość zweryfikowania czy wygenerowana przez ChatGPT osoba faktycznie pojawia się w treści zarzutów, ale tego nie zrobił.

Może faktycznie nie do końca trafione porównanie... Nie zmieni to jednak faktu jak to że AI generuje czasami fałszywe odpowiedzi i nie jest jakaś wiedza tajemna. Nadal pozostaje kwestia tego czy informacja z której facet skorzystał jest powielana w kolejnych odpowiedziach od AI w co wątpie. To tak jakbym ja opublikował informacje, że kogoś zabiłeś powołując się na moje źródło czyli sąsiada. Ty odnajdujesz wskazanego sąsiada, a ten nie ma pojęcia o co ci chodzi i nic nie wie na ten temat. Nawet jeśli ja wiem gdzie faktycznie leży wina to ostatecznie i tak ja ponoszę winę za rozpowszechnianie.

dariuszp napisał:

Kompletnie nietrafione porównanie.

Fun_g_1_2_3 napisał:

To trochę tak jakby pozwać producenta broni palnej bo ktoś zginął gdy jakiś człowiek pociągnął za spust gdy broń była odbezpieczona i naładowana. Od razu przypomina mi się filmik z sieci sprzed lat gdzie facet na własnym weselu bierze od teścia pistolet, przykłada go sobie do skroni (na co teść reaguje sprzeciwem) po czym ciągnie za spust i upada jak kłoda. Kto tu ponosi odpowiedzialność? Teść, "samobójca" czy producent broni?

Żadne AI nie jest jeszcze na tyle zaawansowane by zastąpić nas w pracy. ChatGPT służby bardziej wspomaganiu przy pracy, a nie wykonywania jej za człowieka. Sam nawet kilka razy z takiego wspomagania skorzystałem!

Idąc dalej tym tokiem myślenia gdzie powszechną, nieukrywaną przez twórców wiedzą jest to, że AI napotykając problem generuje fałszywe informacje to możemy mówić o niewłaściwym skorzystaniu z "narzędzia" jakim jest ChatGPT. W tym kierunku zrobiłem to porównanie - broń też nie służy do popisów i strzelania sobie w głowę.

dariuszp napisał:

Nie ma to nic do tematu.

Fun_g_1_2_3 napisał:

Jest taka jedna zasada obowiązująca chyba na całym świecie - niewiedza nie zwalnia z odpowiedzialności.

Zależy jak na to spojrzysz. Jeżeli ChatGPT może wygenerować fałszywe informacje i jest to wiedza powszechna, a dziennikarz o tym nie wiedział lub to zignorował to nie ma co się doszukiwać winy programu, albo jego twórcy. Facet mógł zweryfikować informacje i nie musiał ich bezsensownie publikować podając je za prawdziwe. Nie ma sensu doszukiwać się tu winy twórców AI. Co innego gdyby udostępnili dane narzędzie jako wiarygodne i bezbłędne, ale każdy wie, że tak nie jest.

dariuszp
Gramowicz
14/06/2023 09:13
Fun_g_1_2_3 napisał:

Z tym automatycznym samochodem to tu trochę nietrafione porównanie. Byłoby trafne gdyby ChatGPT samodzielnie wymyślał i publikował treści, ale ten nie ma takiej możliwości. SI działało z polecenia człowieka i to człowiek opublikował ten tekst.

Ale mówimy o dwóch odrębnych sytuacjach. Dana osoba zapytała o coś czat i dostała kłamstwa na temat tej osoby. Gdybyś poszedł i zadał podobne pytanie to byś też dostał te kłamstwa.

Na chwilę by zrozumieć mój argument wyobraź sobie że nie ma dziennikarza. Po prostu ktoś w internetach napisał że AI opowiada że jestem kryminalistą i spora grupa osób poszła tam o mnie zapytać i dostała te same kłamstwa które teraz krążą po internecie na mój temat.

Winnym będzie w tym momencie AI bo rozpowszechnia kłamstwa. Nie człowiek zadający pytanie. Ten koleś co opublikował kłamstwa też jest winny ale to osobny przypadek.

Tak samo w przypadku automatycznego samochodu z kierowcą za kierownicą. Nie ważne jest to, że działał automat skoro kierowca wolał obserować jak człowiek wpada pod samochód zamiast nadepnąć na hamulec i do tego nie dopuścić. Identycznie dziennikarz miał możliwość zweryfikowania czy wygenerowana przez ChatGPT osoba faktycznie pojawia się w treści zarzutów, ale tego nie zrobił.

Tyle że w wypadku czatu nie ma człowieka który czyta i weryfikuje jego treści zanim mnie je pokaże. Więc porównanie nie trafione. Zgadza się że przy tym co zrobił koleś który opublikował kłamstwa to koleś jest winny. Ale to nie zwalnia czatu z winy za powtarzanie kłamstw na kogoś temat.

To trochę tak jakby pozwać producenta broni palnej bo ktoś zginął gdy jakiś człowiek pociągnął za spust gdy broń była odbezpieczona i naładowana. Od razu przypomina mi się filmik z sieci sprzed lat gdzie facet na własnym weselu bierze od teścia pistolet, przykłada go sobie do skroni (na co teść reaguje sprzeciwem) po czym ciągnie za spust i upada jak kłoda. Kto tu ponosi odpowiedzialność? Teść, "samobójca" czy producent broni?

Kompletnie nietrafione porównanie.

Jest taka jedna zasada obowiązująca chyba na całym świecie - niewiedza nie zwalnia z odpowiedzialności.

Nie ma to nic do tematu.

Fun_g_1_2_3
Gramowicz
13/06/2023 18:21

dariuszp napisał:

Ale mnie jako przeciętnego zjadacza chleba nie obchodzi dlaczego Twój program kłamie na mój temat wymieniając mnie z imienia i nazwiska. Nie ma też powodu dla którego miałby tak kłamać. Dla mnie to jest typowa usterka albo celowe działanie i jesteś za to odpowiedzialny bo to Twój program.

Podobnie jak np. automatyczny samochód by kogoś rozjechał. To co? Nikt nie jest winny bo to automatyczny kierowca rozjechał? A może winny jest samochód bo tak został zaprojektowany? Nie. Winę za czyjąś śmierć ponosi firma która stworzyła samochód i ludzie którzy ją prowadzą. A jeżeli byli świadomi że ten samochód może kogoś rozjechać to powinni trafić do więzienia podobnie jak trafiają jak im udowodnisz że wiedzieli o szkodliwości np. produktu spożywczego.

Yosar napisał:

Nie. Jeśli program z natury zmyśla, bo tak został zaprojektowany i jest o tym informacja przy jego używaniu, to jak pozywać producenta noży że nóż jest ostry. On ma być ostry. Program ma zmyślać bo tak został zaprojektowany. To tylko medialna hopla zrobiła z niego jakieś wszechwiedzące monstrum czy encyklopedię świata. Ani na jedno ani na drugie się nie nadaje.

Z tym automatycznym samochodem to tu trochę nietrafione porównanie. Byłoby trafne gdyby ChatGPT samodzielnie wymyślał i publikował treści, ale ten nie ma takiej możliwości. SI działało z polecenia człowieka i to człowiek opublikował ten tekst. Tak samo w przypadku automatycznego samochodu z kierowcą za kierownicą. Nie ważne jest to, że działał automat skoro kierowca wolał obserować jak człowiek wpada pod samochód zamiast nadepnąć na hamulec i do tego nie dopuścić. Identycznie dziennikarz miał możliwość zweryfikowania czy wygenerowana przez ChatGPT osoba faktycznie pojawia się w treści zarzutów, ale tego nie zrobił. To trochę tak jakby pozwać producenta broni palnej bo ktoś zginął gdy jakiś człowiek pociągnął za spust gdy broń była odbezpieczona i naładowana. Od razu przypomina mi się filmik z sieci sprzed lat gdzie facet na własnym weselu bierze od teścia pistolet, przykłada go sobie do skroni (na co teść reaguje sprzeciwem) po czym ciągnie za spust i upada jak kłoda. Kto tu ponosi odpowiedzialność? Teść, "samobójca" czy producent broni?

Jest taka jedna zasada obowiązująca chyba na całym świecie - niewiedza nie zwalnia z odpowiedzialności




Trwa Wczytywanie