Przejdź do trybu offline z Player FM !
Episode 26: Skal AI risikovurdere børn?
Manage episode 367235321 series 2919723
Med risikoprofilering følger det forjættende potentiale endelig at kunne rette op på problemer med udsatte børns mistrivsel - muligheden for at skærme barnet inden det udsættes for alvorligt omsorgssvigt. Men brugen af algoritmer til risiko-profilering er blevet berygtet med Gladsaxe-modellen, som den blev døbt, hvor Gladsaxe Kommune ved hjælp af kunstig intelligens og samkørte data ville forudsige hvilke børn, der var i risiko for mistrivsel. Et projekt der mødte stor kritik og blev skrottet.
Projektet ‘Underretninger i fokus’ sigtede mod samme mål, men lykkedes heller ikke. Og nu er ENDNU et forsøg på at bygge et AI-beslutningsstøtteværktøj i Aarhus kommune lagt i graven. Er risikoprofilering af udsatte børn et område vi skal blive ved med at tro at kunstig intelligens kan løfte?
Podcasten ’Blinde Vinkler’ er produceret af Ingeniørforeningen IDA og IT-Branchen og udviklet i samarbejde med Tina Ryoon Andersen og Rune Fick Hansen. Den er tilrettelagt, redigeret og beværtet af Marie Høst.
Gæst
Therese Moreau, uddannet data scientist, og arbejder som tech journalist på Version2 og redaktør på Datatech.
Links
Minority report trailer
https://www.youtube.com/watch?v=lG7DGMgfOb8&embeds_referring_euri=https%3A%2F%2Fwww.google.com%2F&source_ve_path=Mjg2NjY&feature=emb_logo
TV2 Nyhederne: Eksperter: Kommuner kan ikke håndtere misbrugssager
https://nyheder.tv2.dk/samfund/2015-09-17-eksperter-kommuner-kan-ikke-haandtere-misbrugssager
Version 2: Aarhus trækker stikket på børne-algoritme: »Modellen var ikke stærk nok og gav ikke nok værdi«
https://www.version2.dk/artikel/aarhus-traekker-stikket-paa-boerne-algoritme-modellen-ikke-var-staerk-nok-og-ikke-gav-nok
36 odcinków
Manage episode 367235321 series 2919723
Med risikoprofilering følger det forjættende potentiale endelig at kunne rette op på problemer med udsatte børns mistrivsel - muligheden for at skærme barnet inden det udsættes for alvorligt omsorgssvigt. Men brugen af algoritmer til risiko-profilering er blevet berygtet med Gladsaxe-modellen, som den blev døbt, hvor Gladsaxe Kommune ved hjælp af kunstig intelligens og samkørte data ville forudsige hvilke børn, der var i risiko for mistrivsel. Et projekt der mødte stor kritik og blev skrottet.
Projektet ‘Underretninger i fokus’ sigtede mod samme mål, men lykkedes heller ikke. Og nu er ENDNU et forsøg på at bygge et AI-beslutningsstøtteværktøj i Aarhus kommune lagt i graven. Er risikoprofilering af udsatte børn et område vi skal blive ved med at tro at kunstig intelligens kan løfte?
Podcasten ’Blinde Vinkler’ er produceret af Ingeniørforeningen IDA og IT-Branchen og udviklet i samarbejde med Tina Ryoon Andersen og Rune Fick Hansen. Den er tilrettelagt, redigeret og beværtet af Marie Høst.
Gæst
Therese Moreau, uddannet data scientist, og arbejder som tech journalist på Version2 og redaktør på Datatech.
Links
Minority report trailer
https://www.youtube.com/watch?v=lG7DGMgfOb8&embeds_referring_euri=https%3A%2F%2Fwww.google.com%2F&source_ve_path=Mjg2NjY&feature=emb_logo
TV2 Nyhederne: Eksperter: Kommuner kan ikke håndtere misbrugssager
https://nyheder.tv2.dk/samfund/2015-09-17-eksperter-kommuner-kan-ikke-haandtere-misbrugssager
Version 2: Aarhus trækker stikket på børne-algoritme: »Modellen var ikke stærk nok og gav ikke nok værdi«
https://www.version2.dk/artikel/aarhus-traekker-stikket-paa-boerne-algoritme-modellen-ikke-var-staerk-nok-og-ikke-gav-nok
36 odcinków
すべてのエピソード
×Zapraszamy w Player FM
Odtwarzacz FM skanuje sieć w poszukiwaniu wysokiej jakości podcastów, abyś mógł się nią cieszyć już teraz. To najlepsza aplikacja do podcastów, działająca na Androidzie, iPhonie i Internecie. Zarejestruj się, aby zsynchronizować subskrypcje na różnych urządzeniach.