Du er ikke logget ind
Del
Tilbage
Billede af materialet Santa Altman, rumænsk TikTok-stjerne og tastaturer, der hader kvinder
Radio
Prompt
Santa Altman, rumænsk TikTok-stjerne og tastaturer, der hader kvinder
8.-10. klasse Ungdomsuddannelser



Hver uge går Prompt bag om tech-giganternes 'Ultra Pro Max'-løfter, bullshit-tester de nyeste tech-trends og spørger, om kunstig intelligens og AI er vores ven eller fjende. Sammen med tech-korrespondent Henrik Moltke nærlæser tech-analytiker Marcel Mirzaei-Fard de største historier om den teknologiske udvikling, der forandrer vores verden og muligheder.
Apple har opdateret det danske tastatur på iPhones med en ny funktion, der skal gøre det hurtigere at skrive. Men bag de smarte ordforslag gemmer sig tydelige bias og stereotyper. Vi afslører, hvad der sker, når man skriver "Kvinder" og følger tastaturets første forslag.
Derudover dykker vi ned i det rumænske valg (hvor ellers?), hvor en politiker gik fra anonymitet til TikTok-stjerne og slugte næsten en fjerdedel af stemmerne. Men mistanken om russisk indblanding gør, at valget nu skal tages om.
Og så lancerer OpenAI sin længe ventede video-AI, Sora, der skaber hele videoer fra tekstprompter, mens direktør Sam Altman nu sænker barren for, hvornår OpenAI når sit mål.


"Santa Altman, rumænsk TikTok-stjerne og tastaturer, der hader kvinder" er en del af

Serie
Prompt

Side
af

Log ind og få adgang

Du skal logge ind med Unilogin eller WAYF - så kan du låne materialet

Alle dansklærere ved at ordvalg er helt afgørende. Ord er nemlig ladet med betydning og indlejrede værdier(konnotationer), som vi forsøger at bevidstgøre vores elever om.
Derfor må vi dansklærere også tale med eleverne om de nye sprogmodeller, som dukker op alle vegne lige nu i vores hverdagsliv fx som ChatGPT.
Sprogmodeller vælger nemlig også ord - på baggrund af de datasæt, som vi fodrer dem med - og de ord og sætninger er også fulde af indlejrede værdier. Sprogmodeller er ofte meget biased, og det er derfor nødvendigt at beskæftige sig med i dansk i udskolingen.
Med Apples opdatering af tastaturet december 24 er der kommet en funktion, som forslår ord, mens man skriver fx sms-beskeder. Ordforslagene er genereret via en sprogmodel- som generer forslagene ud fra et bestemt men ukendt datasæt. Den bruger datasættet til at regne ud, hvad der mon er det mest sandsynlige ord, der kommer efter det ord, du har skrevet. Det viser sig at disse ord har en tydelig bias mod fx kvinder og muslimer.
Prøv sammen med elever at skrive beskeder, der starter med ordene 'Kvinde' og 'muslimer' og vælg det ord, som Apple forslår som det først og se hvilke sætninger, som kommer ud af det. Diskuter hvorfor det mon er sådan, og hvad konsekvenserne af sådanne funktioner kan være? Hvad kan man gøre ved det?

Apples ordforslags-funktion er biased

Hent PDF med kapitelmærkning

01
00:00:00
Kapitelbillede
Intro til indslaget om Apples biased ordforslags-funktion

02
00:05:38
Kapitelbillede
Indslaget
Værterne og gæsten taler sammen om Apples ordforslags-funktion, som de har opdaget har nogle indbyggede stereotype holdninger til grupper af mennesker som fx kvinder og muslimer. Prøv selv at skrive beskeder, der starter med ordene 'Kvinde' og 'muslimer' og vælg det ord, som Apple forslår som det først og se hvilke sætninger, som kommer ud af det. Diskuter, hvad årsagen mon kan være til det er sådan, og hvad betydning det kan have - og for hvem?

Pædagogisk note
Trine Ferdinand
Vært
Henrik Moltke
Marcel Mirzaei-Fard
Udgiver
DR
Udgivelsesår
2024
Faustnummer
CFURADIO1141113
Fysisk beskrivelse
Podcast
Sprog
Dansk
Materialetype
Radioudsendelse
Spilletid
0 min..
Radio-dato
12. dec. 2024 kl. 11.14