👉 Czy AI i ML rzeczywiście powinniśmy traktować jako zagrożenie? Z jakiego powodu?
👉 Co zrobić, aby AI i ML nam rzeczywiście nie zaszkodziły?
👉 Jakie błędy popełniamy mówiąc i myśląc o sztucznej inteligencji (AI) czy uczeniu maszynowym (ML)?
Powyższe pytania zadałem Michałowi Staśkiewiczowi, współtwórcy i prezesowi zarządu Alphamoon - firmy oferującej rozwiązania oparte o sztuczną inteligencję. Michał jest też członkiem think tanku akimbo.ai - dolnośląskiego hubu sztucznej inteligencji.
W trakcie rozmowy Michał wspominał m.in. wykorzystaniu AI do wydawania wyroków sądowych. W trakcie testów okazało się, że osoby o czarnym kolorze skóry dostają wyższe wyniki za te same przestępstwa co osoby o białym kolorze skóry. Skąd to wynika? Dowiecie się z wywiadu. A tropy takiego "postępowania" AI znajdziecie m.in. w tych artykułach (zachęcam do przeczytania po wysłuchaniu rozmowy):
1. Badania dot. recydywy wśród Afroamerykanów: https://phys.org/news/2018-10-black-men-higher-recidivism-factors.html
2. O stereotypach dotyczących Afroamerykanów i przestępczości: https://en.wikipedia.org/wiki/Criminal_stereotype_of_African_Americans
3. Jak działa algorytm COMPAS COMPAS profilujący przestępców: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm
--------------------------------------
Interesuje Cię uczenie się na błędach? Chcesz wiedzieć, jak robić to skutecznie? Zapraszamy na stronę Fundacji Dobra Porażka:
dobraporazka.pl
--------------------------------------
#NaCudzychBłędach #DobraPorażka #infoShare