Programiści Artur Fortunato i Filipe Reynaud w ramach hackathonu w grudniu 2022 roku stworzyli program o nazwie Forensic Sketch AI-rtist, który potrafi tworzyć
"hiperrealistyczne" policyjne szkice podejrzanego
na podstawie danych wprowadzonych przez użytkownika.
Mężczyźni wykorzystali generator obrazów DALL-E 2 firmy Open AI. Forensic Sketch AI-rtist ma przyspieszyć proces szkicowania podobizny podejrzanego o popełnienie przestępstwa. Stworzenie rysunku tradycyjną metodą trwa od dwóch do trzech godzin.
"Jeszcze nie wypuściliśmy produktu, więc w tej chwili nie mamy żadnych aktywnych użytkowników. Na tym etapie próbujemy zweryfikować, czy projekt jest opłacalny w rzeczywistym scenariuszu, czy nie. W tym celu planujemy skontaktować się z departamentami policji, żeby uzyskać dane, na których możemy przetestować program" - napisali w mailu do redakcji Motherboard Vice.
Etycy i badacze sztucznej inteligencji obawiają się, że wykorzystanie tej technologii w kryminalistyce może
pogłębić istniejące uprzedzenia rasowe i płciowe
, które pojawiają się we wstępnych opisach świadków przestępstwa.
- Problem z tradycyjnymi szkicami kryminalistycznymi nie polega na tym, że ich tworzenie zajmuje dużo czasu. Problem polega na tym, że każdy szkic kryminalistyczny jest przedmiotem ludzkich uprzedzeń i kruchości ludzkiej pamięci - stwierdziła Jennifer Lynch, dyrektor ds. sporów dotyczących nadzoru nadzoru w Electronic Frontier Foundation.
Program prosi użytkowników o informacje, takie jak płeć, kolor skóry, wiek, wygląd brwi, nosa, brody, włosów, oczu czy opis szczęki.
- Badania wykazały, że ludzie zapamiętują twarze całościowo, a nie element po elemencie. Proces szkicowania, który opiera się na opisach poszczególnych cech, może skutkować twarzą, która jest uderzająco różna od twarzy sprawcy - oceniła Lynch.
Rozmówczyni Vice powołała się na statystyki, które wskazują, że fałszywe lub wprowadzające w błąd analizy kryminalistyczne, w tym szkice policyjne, przyczyniły się do prawie
25 proc. wszystkich niesłusznych wyroków
skazujących w Stanach Zjednoczonych.
Sasha Luccioni, naukowiec z Hugging Face, wskazał, że generator DALL-E 2 powiela wiele stereotypów, np. zwykle generuje białego mężczyznę, kiedy poprosi się go o wygenerowanie wizerunku dyrektora generalnego. Z kolei, kiedy poprosi się go o zdjęcie członka gangu, dostarczy nam obraz przedstawiający czarnoskórego mężczyznę.