Eftersøgt terrorist afsløret på Facebook, absurd woke AI og overmodige danskere
Mar 7, 2024 ·
52m 34s
Download and listen anywhere
Download your favorite episodes and enjoy them, wherever you are! Sign up or log in now to access offline listening.
Description
Efter 30 år under jorden er Daniela Klette anholdt. Hun var medlem af den forhenværende militante organisation Rote Armee Fraktion og anklaget for våbnet røveri og drabsforsøg. Men havde tysk...
show more
Efter 30 år under jorden er Daniela Klette anholdt. Hun var medlem af den forhenværende militante organisation Rote Armee Fraktion og anklaget for våbnet røveri og drabsforsøg.
Men havde tysk politi brugt ansigtsgenkendelsesteknologien PimEyes, havde de måske ikke behøvet vente så længe.
Open source intelligens-analytiker Valdemar Balle troede ikke sine egne øjne, da han slog politiets 30 år gamle billede af den eftersøgte terrorist Daniela Klette op i PimEyes - og fik et resultat. Men ikke desto mere var det rigtigt.
Hvilke dilemmaer i forhold til overvågning og sikkerhed sætter historien fra Tyskland på spidsen? Det fortæller Valdemar Balle om her.
Googles Gemini skulle slå OpenAIs chatbot, men i stedet har den gjort sig uheldigt bemærket ved at vise ukorrekte men utrolig diverse billeder af historiske personer.
I Geminis fortolkning bliver USAs grundlæggere til en divers gruppe mænd og kvinder, de fleste ikke-hvide. Og en række andre eksemmpler på hvad, der blevet kaldt "absurd woke"-Gemini er gået viralt.
De ukorrekte billeder kalder CEO af Google, Sundar Pinchai for “komplet uacceplatet”. Men jeg spørger Sine Zambach om der ikke er en række andre ting, som forskellige kunstige intelligenser allerede har gjort, som man i højere grad burde kalde “komplet uacceptable”.
Mens det tilsyneladende var nemt for folk at spotte at Geminis fremstilling af historiske personer ikke var helt korrekt, så fortæller Mia Stenbro Lorenzen fra Digital Democracy Centre ved SDU at danskerne overvurderer deres evner til at gennemskue hvad, der er skabt med kunstig intelligens. Og så kan teknologien forstærke allerede eksisterende uligheder. Det konkluderer centerets seneste rapport.
Vært: Nanna Schmidt Nordestgaard
show less
Men havde tysk politi brugt ansigtsgenkendelsesteknologien PimEyes, havde de måske ikke behøvet vente så længe.
Open source intelligens-analytiker Valdemar Balle troede ikke sine egne øjne, da han slog politiets 30 år gamle billede af den eftersøgte terrorist Daniela Klette op i PimEyes - og fik et resultat. Men ikke desto mere var det rigtigt.
Hvilke dilemmaer i forhold til overvågning og sikkerhed sætter historien fra Tyskland på spidsen? Det fortæller Valdemar Balle om her.
Googles Gemini skulle slå OpenAIs chatbot, men i stedet har den gjort sig uheldigt bemærket ved at vise ukorrekte men utrolig diverse billeder af historiske personer.
I Geminis fortolkning bliver USAs grundlæggere til en divers gruppe mænd og kvinder, de fleste ikke-hvide. Og en række andre eksemmpler på hvad, der blevet kaldt "absurd woke"-Gemini er gået viralt.
De ukorrekte billeder kalder CEO af Google, Sundar Pinchai for “komplet uacceplatet”. Men jeg spørger Sine Zambach om der ikke er en række andre ting, som forskellige kunstige intelligenser allerede har gjort, som man i højere grad burde kalde “komplet uacceptable”.
Mens det tilsyneladende var nemt for folk at spotte at Geminis fremstilling af historiske personer ikke var helt korrekt, så fortæller Mia Stenbro Lorenzen fra Digital Democracy Centre ved SDU at danskerne overvurderer deres evner til at gennemskue hvad, der er skabt med kunstig intelligens. Og så kan teknologien forstærke allerede eksisterende uligheder. Det konkluderer centerets seneste rapport.
Vært: Nanna Schmidt Nordestgaard
Information
Author | ENIGMA |
Organization | ENIGMA |
Website | - |
Tags |
-
|
Copyright 2024 - Spreaker Inc. an iHeartMedia Company