OpenAI brengt paper uit over GTP-3. Een taalmodel dat synthetische nepteksten schrijft; bijna niet van echt te onderscheiden.

thenextweb.com

OPENAI heeft een paper uitgebracht over GPT-3, een taalmodel dat getraind is op maar liefst 175 miljard parameters. Ter vergelijking, de vorige versie GPT-2 was 1,5 miljard parameters.

GPT-3 kan een indrukwekkend scala aan taalverwerkingstaken uitvoeren - zonder dat het voor elke specifieke taak hoeft te worden getraind. Het kan bijvoorbeeld ook grammaticale verbeteringen in teksten doorvoeren.

Het meest indrukwekkende is het vermogen van GPT-3 om verschillende alinea's aan synthetische nepteksten te genereren. Die zijn moeilijk te onderscheiden van teksten die door mensen geschreven zijn.

Het model is nog niet openbaar, dus voorlopig moeten we afwachten waar het nog meer voor gebruikt kan worden.

Read more...
Linkedin

Want to receive more content like this in your inbox?