"Post videon på LinkedIn - de har det så vildt med ChatGPT derovre" ...var der en følger på Dittos Instagram, der skrev tidligere i dag. Som en lille overspringshandling, har jeg nemlig drillet ChatGPT lidt her til formiddag. Som storforbruger og fan på mange måder, er det alligevel godt at minde sig selv om den skepsis, som man skal blive ved med at udvise. Andre gode idéer til hvad man skal spørge ChatGPT om, for at vise hvordan den har udviklet bias omkring kvinder og andre minoriteter?
Jeg anerkender helt at de her AI's er trænet på biased datasæt, men vi er jo også biased som mennesker. Hvis du bad en fotograf, uden yderligere kontekst: "Tag et billede af en succesfuld CEO" - ville du formentlig heller ikke være imponeret over resultatet. Hyre du en fotograf, giver du jo vedkomne meget mere kontekst.
Rikke Kristine Østergaard du burde spørre ChatGPT om å vise bilde av en kriminell, så vil du sikkert se at du har glemt at menn like fullt er offer for AI bias som kvinner og minoriteter er…
I det her scenarie skal man huske to ting. 1. ChatGPT er trænet på uanede mængder materiale skabt af mennesker. Den har ikke ‘sin egen holdning’. Altså gengiver den output fra en bestemt promt, på materiale der er menneskeskabt. Altså, hvis materialet den er blevet fødet med er bias, vil outputtet være bias. 2. Outputtet ChatGPT levere er kun så godt som det det input der bliver leveret. Det gør sig sådan set gældende for alt generativ KI. Så hvis det eneste input man giver den er en enkelt sætning uden karakteriska eller stillistisk udtryk, så vil man også få et unuanceret output.
Verdensklasse😂 Hvorfor er de mandlige CEO’s også hvide, smukke og sportstrænede. Det passer heller ikke med virkeligheden🤔 Hvor får den det dog fra…
Der var en anden her på LinkedIn som bad den generere et billede af en autist. Resultat en ung, trist-udseende, hvid mand. Efter at have efterspurgt flere billeder af det samme kom vedkommende til slut op på over 100 billeder med det samme resultat. Ingen kvinder, ingen ikke-hvide, ingen ældre, ingen med andre synlige handicap, osv. altså den gængse stereotypiske autist. Et nær perfekt sammenfald med de samme som allerede er underdiagnosticerede eller bliver diagnosticeret sent i livet. AI har bias fordi dem som fodrer den har bias.
Oh my God.... Jeg har altid været kritisk overfor den slag værktøjer, som skal bruges med en god portion skepsis - mit første promt var " Hvor mange æg lægger en ko" Svaret ses på billedet - igen Oh my God!
It is funny because it is true. Studier, der viser korrelation mellem køn, alder og etnicitet, kender de fleste - men ja vægt har også betydning. Studier viser, at kvinder tjener mere desto tyndere (aka f…….), de er (i samme stilling og med samme performance), mens der for mænd ikke er korrelation mellem vægt og løn. Det skal dog retfærdigvis nævnes, at der er påvist sammenhæng mellem mænds højde og deres forfremmelser. CEOs er typisk ikke blot hvide mænd, men høje hvide mænd, og hvis der er en kvindelig CEO - så er hun typisk slank og blond …. ChatGPT er ikke biased - ChatGPT gengiver verdenen som den er - med de biases vi mennesker har ….
Any new technology is mostly created by men so their preconceptions will be visible Luckily, more and more women are finding their way into areas which have been predominantly male oriented. Hopefully this will bring diversity to the teach world.
Rikke Kristine, den et lige i vinkel og virkelig sjov!👏🏻 Vi ved jo godt at AI pt er biased… eller det burde vi og rette konteksten derefter. Præcist som du gjorde… også så gik Ghat GPT lige tilbage til ‘plejer’, man skal blive ved med at ‘holde’ den op med at gå imod sin biais. Kan håbe på det bliver fixet i en frntidlig opdatering 😉
Minoriteten “omsorgsfulde fædre”… Prompt: Kan du vise mig et billede af en omsorgsfuld forældre?