Niedawno informowaliśmy, że eksperci z rosyjskiego laboratorium AI Samsunga opracowali algorytm technologii deepfake, który pozwala na
odtworzenie mimiki postaci na podstawie zdjęcia.
Sztuczna inteligencja wykorzystuje mechanizm odtwarzania ruchów twarzy. Na podstawie kilkudziesięciu tysięcy materiałów, które wcześniej "obejrzała", potrafi stworzyć "żywy portret".
Teraz okazuje się, że
grupa amerykańskich badaczy z Laboratorium Informatyki i Sztucznej Inteligencji
odkryła, że dzięki złożonym
algorytmom mogą oni odtworzyć obraz twarzy na podstawie nagrania dźwiękowego osoby mówiącej.
Zespół badaczy zajmujący się tym projektem opracował i wyszkolił sieć neuronową, która za pomocą twarzy osób z milionów filmów z Internetu jest w stanie
odtworzyć wygląd osoby mówiącej.
Podczas testów ich model nauczył się korelować twarze z głosem, co pozwoliło na "
wychwycenie różnych cech fizycznych mówców, takich jak wiek, płeć, czy pochodzenie etniczne".