![fot. X @TheAIColony](https://cdn01.donald.pl/filer_public_thumbnails/filer_public/b8/62/b8621a25-ae8c-471a-8940-4c97d7d940ea/ai.jpg__1200x0_q85_crop_subsampling-2_width-1200.jpg)
fot. X @TheAIColony
ByteDance
, właściciel TikToka, poinformował, że wprowadził
model sztucznej inteligencji
, który cieszy się szerokim zainteresowaniem ze względu na jego
zdolność do przekształcania zdjęć i krótkich filmików w realistyczne filmy
, zwane deepfake'ami.
Model
OmniHuman-1
może tworzyć realne filmy z ludźmi mówiącymi, śpiewającymi i poruszającymi się z jakością znacznie przewyższającą dotychczasowo tworzone nagrania. Korzysta z technologii Diffusion Transformer, dzięki czemu jest w stanie dokładnie przewidywać ruchy człowieka. AI od twórców TikToka używa obrazu referencyjnego i sygnałów ruchu.
Do wygenerowania wideo deepfake wystarczy jej tak naprawdę tylko jedno zdjęcie
.
OmniHuman-1 nie jest jeszcze dostępne dla użytkowników. Na razie opublikowano w sieci nagrania, na których widać efekty pracy AI od ByteDance. Viralem stało się
23-sekundowe wideo z Albertem Einsteinem
, wygłaszającym przemówienie. Eksperci zachwycają się jego jakością. Kyle Wiggers z TechCrunch nagrania stworzone ze pomocą OmniHuman-1 określił mianem "szokująco dobrych" i "
być może najbardziej realistycznych deepfake'ów w historii
".
Model AI od ByteDance tym samym może konkurować z modelem Sora od OpenAI, który również rozwija technologie generowania wideo na podstawie tekstu i dźwięku.