Etiske bekymringer ved ChatGPT

Merkedata
Det ble avslørt av en undersøkelse i TIME-magasinet at for å bygge et sikkerhetssystem mot giftig innhold (f.eks. seksuelle overgrep, vold, rasisme, sexisme, etc.), brukte OpenAI utkontrakterte kenyanske arbeidere som tjener mindre enn $2 per time for å merke giftig innhold.Disse etikettene ble brukt til å trene en modell for å oppdage slikt innhold i fremtiden.De utkontrakterte arbeiderne ble utsatt for så giftig og farlig innhold at de beskrev opplevelsen som "tortur".OpenAIs outsourcingpartner var Sama, et treningsdataselskap basert i San Francisco, California.

Jailbreaking
ChatGPT forsøker å avvise forespørsler som kan bryte innholdsretningslinjene.Noen brukere klarte imidlertid å jailbreak ChatGPT ved å bruke ulike prompte ingeniørteknikker for å omgå disse restriksjonene tidlig i desember 2022 og lurte ChatGPT til å gi instruksjoner for hvordan man lager en molotovcocktail eller en atombombe, eller til å generere argumenter i stil med en nynazist.En Toronto Star-reporter hadde ujevn personlig suksess med å få ChatGPT til å komme med provoserende uttalelser kort tid etter lanseringen: ChatGPT ble lurt til å støtte den russiske invasjonen av Ukraina i 2022, men selv da ChatGPT ble bedt om å spille sammen med et fiktivt scenario, nektet ChatGPT å generere argumenter for hvorfor den kanadiske statsministeren Justin Trudeau var skyldig i forræderi.(wiki)


Innleggstid: 18. februar 2023