OpenAI,
organizacja nonprofit, za którą stoi m.in.
miliarder Elon Musk,
poinformowała, że
nie opublikuje wyników badań nad sztuczną inteligencją GPT2.
Badacze boją się, że
model jest zbyt niebezpieczny
i istnieje zbyt duże ryzyko, że zostanie źle wykorzystany, na przykład do masowej produkcji fake newsów.
GPT2 to generator, który po zasileniu go tekstem tworzy dalszą część historii.
Można wpisać do niego kilka słów lub kilka stron. Ma być lepszy od już istniejących, które gubiły wątek lub
tworzyły zdania niepoprawne gramatycznie.
The Guardian
opisuje, że po wgraniu do generatora artykułu o brexicie, ten stworzył dalszą część tekstu, cytując m.in. słowa Jeremy’ego Corbyna czy rzecznika Theresy May oraz odnosząc się do problemu granicy Irlandii.
GPT2 ma rozumieć tekst dzięki ogromnej bazie nawet 10 milionów artykułów.
Ma również tłumaczyć tekst i robić zwięzłe podsumowania na konkretne tematy.
Przypomnijmy, że dostępny jest już darmowy generator twarzy nieistniejących osób
. Nie byłoby więc trudno stworzyć tysiące (miliony?) nieistniejących autorów milionów tekstów z generatora GPT2: