Rikke Kristine Østergaard s indlæg

Se profil for Rikke Kristine Østergaard, grafik

Communications advisor // Podcaster, author & speaker // Diversity, community & behavioral change

"Post videon på LinkedIn - de har det så vildt med ChatGPT derovre" ...var der en følger på Dittos Instagram, der skrev tidligere i dag. Som en lille overspringshandling, har jeg nemlig drillet ChatGPT lidt her til formiddag. Som storforbruger og fan på mange måder, er det alligevel godt at minde sig selv om den skepsis, som man skal blive ved med at udvise. Andre gode idéer til hvad man skal spørge ChatGPT om, for at vise hvordan den har udviklet bias omkring kvinder og andre minoriteter?

Minoriteten “omsorgsfulde fædre”… Prompt: Kan du vise mig et billede af en omsorgsfuld forældre?

  • Der er ingen alternativ tekst for dette billede
August Septimius Krogh

Leder I efter en projektleder inden for bæredygtighed? ➡️ Søg ikke længere! Erfaren projektleder, forretningsudvikler og facilitator her, uddannet Kaospilot med mini-MBA i Bæredygtig Business og Forandringsledelse 🌱

2d

Jeg anerkender helt at de her AI's er trænet på biased datasæt, men vi er jo også biased som mennesker. Hvis du bad en fotograf, uden yderligere kontekst: "Tag et billede af en succesfuld CEO" - ville du formentlig heller ikke være imponeret over resultatet. Hyre du en fotograf, giver du jo vedkomne meget mere kontekst.

Katrine W.

Coaching / Psykologisk konsulent

2d

Rikke Kristine Østergaard du burde spørre ChatGPT om å vise bilde av en kriminell, så vil du sikkert se at du har glemt at menn like fullt er offer for AI bias som kvinner og minoriteter er…

Sebastian Jeppesen

Global Head of Recruitment @ Joe & The Juice I Head of People I Head of P&C I Advisory Board Member I Head of HR I LinkedIn-Novice 🤓

2d

I det her scenarie skal man huske to ting. 1. ChatGPT er trænet på uanede mængder materiale skabt af mennesker. Den har ikke ‘sin egen holdning’. Altså gengiver den output fra en bestemt promt, på materiale der er menneskeskabt. Altså, hvis materialet den er blevet fødet med er bias, vil outputtet være bias. 2. Outputtet ChatGPT levere er kun så godt som det det input der bliver leveret. Det gør sig sådan set gældende for alt generativ KI. Så hvis det eneste input man giver den er en enkelt sætning uden karakteriska eller stillistisk udtryk, så vil man også få et unuanceret output.

Verdensklasse😂 Hvorfor er de mandlige CEO’s også hvide, smukke og sportstrænede. Det passer heller ikke med virkeligheden🤔 Hvor får den det dog fra…

Camilla Asra Engelby

Grafisk Design, Projektledelse & Digital Markedsføring #Neurodivergent #Autist #ADHD #Dyspraksiker

2d

Der var en anden her på LinkedIn som bad den generere et billede af en autist. Resultat en ung, trist-udseende, hvid mand. Efter at have efterspurgt flere billeder af det samme kom vedkommende til slut op på over 100 billeder med det samme resultat. Ingen kvinder, ingen ikke-hvide, ingen ældre, ingen med andre synlige handicap, osv. altså den gængse stereotypiske autist. Et nær perfekt sammenfald med de samme som allerede er underdiagnosticerede eller bliver diagnosticeret sent i livet. AI har bias fordi dem som fodrer den har bias.

Mark Allan Martinussen

𝑳𝒊𝒏𝒌𝒆𝒅𝑰𝒏 𝑪𝒆𝒓𝒕𝒊𝒇𝒊𝒆𝒅 𝑴𝒂𝒓𝒌𝒆𝒕𝒊𝒏𝒈 𝑰𝒏𝒔𝒊𝒅𝒆𝒓

2d

Oh my God.... Jeg har altid været kritisk overfor den slag værktøjer, som skal bruges med en god portion skepsis - mit første promt var " Hvor mange æg lægger en ko" Svaret ses på billedet - igen Oh my God!

  • Der er ingen alternativ tekst for dette billede
Marianne Dahl

Tech, Media & Telco (TMT) | Advisor | Investor | Incoming Board Member | Keynote Speaker

2d

It is funny because it is true. Studier, der viser korrelation mellem køn, alder og etnicitet, kender de fleste - men ja vægt har også betydning. Studier viser, at kvinder tjener mere desto tyndere (aka f…….), de er (i samme stilling og med samme performance), mens der for mænd ikke er korrelation mellem vægt og løn. Det skal dog retfærdigvis nævnes, at der er påvist sammenhæng mellem mænds højde og deres forfremmelser. CEOs er typisk ikke blot hvide mænd, men høje hvide mænd, og hvis der er en kvindelig CEO - så er hun typisk slank og blond …. ChatGPT er ikke biased - ChatGPT gengiver verdenen som den er - med de biases vi mennesker har ….

Annick C. Ladefoged

Trilingual Executive Assistant - Training Coordinator - HR Assistant - Community Administrator - Personal Assistant

2d

Any new technology is mostly created by men so their preconceptions will be visible Luckily, more and more women are finding their way into areas which have been predominantly male oriented. Hopefully this will bring diversity to the teach world.

LOUISE ROLAND

Strategic Project Project Manager | Visual Communication I Graphic Design I AI & Innovation Enthusiast | Board member at Stofskifteforeningen

2d

Rikke Kristine, den et lige i vinkel og virkelig sjov!👏🏻 Vi ved jo godt at AI pt er biased… eller det burde vi og rette konteksten derefter. Præcist som du gjorde… også så gik Ghat GPT lige tilbage til ‘plejer’, man skal blive ved med at ‘holde’ den op med at gå imod sin biais. Kan håbe på det bliver fixet i en frntidlig opdatering 😉

Se flere kommentarer

Hvis du vil se eller tilføje en kommentar, skal du logge ind