„Pomysłodawca Ilon Musk firma OpenAI ujawniła nowe opracowanie, które pozwala generować w pełni sensowne teksty za pośrednictwem komputera. Technologia ta nosi nazwę GPT-2.
Według twórcy, algorytm opiera się na licznych treningach systemu sztucznej inteligencji. Przykładowo, maszynie przedstawiono ponad osiem milionów stron tekstu o objętości 40 GB, a podczas treningu wymagano od niej przewidywania kolejnych słów w kontekście. Następnie system był w stanie samodzielnie wygenerować tekst, czyli napisać opowiadanie na zadany temat. Jeden z takich przykładów, esej na temat recyklingu, można znaleźć w internecie.
Specjaliści wypróbowali GPT-2 w innych zastosowaniach, takich jak odpowiadanie na losowe pytania czy tłumaczenie tekstów. W tym przypadku sukces był jednak skromniejszy: urządzenie zapewniało jedynie 60-procentową dokładność odpowiedzi na pytania i tłumaczyło tylko niektóre słowa tekstu. Jest to znacznie niższa wartość niż w przypadku niektórych innych systemów o podobnej funkcjonalności.
Deweloperzy dążą do ulepszenia systemu na wszystkich frontach. Pełny kod oprogramowania nie jest udostępniany, ponieważ GPT-2 jest uważany za potencjalnie niebezpieczny program, który może zostać wykorzystany przez przestępców do generowania fałszywych wiadomości, wysyłania spamu itp.
Czy GPT-2 umożliwia również poprawianie błędów językowych i gramatycznych w tekście?