W czwartek na kanałach
Platformy Obywatelskiej
opublikowano spot z serii "Maile Prawdy", nawiązujący do afery z mailami mającymi pochodzić ze skrzynki
Michała Dworczyka. Maile, które pisać miał Mateusz Morawiecki "czyta" on sam - głos premiera został wygenerowany przez
sztuczną inteligencję
. Platforma nie oznaczyła jednak tego faktu w spocie, za co została szeroko skrytykowana.
W spocie zestawiono maile m.in. na temat nielolajności Zbigniewa Ziobry i trudnościach w rządzeniu z wypowiedziami premiera z sejmowej mównicy, w których padały zapewnienia o trwałości Zjednoczonej Prawicy.
W spocie nie oznaczono jednak, że głos premiera został wygenerowany przez AI, co szybko
skrytykowali
eskperci.
"Wrzucenie deepfake z premierem przez największą partię opozycyjną, bez oznaczania tego jako treść syntetyczna, jest strzeleniem sobie w stopę. Bez względu na poglądy polityczne" - napisał na Twitterze
dr Łukasz Olejnik
, ekspert od cyberbezpieczeństwa.
Eksperci są zgodni, że wykorzystanie AI należy jasno oznaczać.
"Uważałabym jednakowoż, że kiedy powstaje klon głosu to należy to oznaczać w samym poście, żeby było jasne, ze to nagranie powstało z wykorzystaniem AI. Trzymajmy się najlepszych standardów w dobie generatywnej sztucznej inteligencji" - napisała
prof. Aleksandra Przegalińska z Akademii Leona Koźmińskiego
.
Michał Podlewski
prowadzący na Twitterze konto o sztucznej inteligencji, działanie PO ocenił jako "nieładne". Zaznaczył, że firmy udostępniające technologię umożliwiającą np. generowanie głosów, podkreślają w regulaminach, że wykorzystanie AI musi być oznaczone przy publikacji. Przypomniał też, że debata dotycząca zagrożeń związanych z użyciem AI w kampanii wyborczej toczy się również w Stanach Zjednoczonych, m.in. za sprawą Republikanów, którzy w kwietniu wypuścili spot z wygenerowanymi przez AI zdjęciami Joe Bidena.
Wczoraj Platforma Obywatelska opublikowała kolejny spot z serii "Maile Prawdy". Tym razem oznaczono już, że głos lektora został wygenerowany przez AI.