De GPT-3 / Guardian hype.

www.theguardian.com

Deze tech-update is geschreven door een mens. Ik zeg het er maar even bij...

Er was de afgelopen week namelijk veel te doen om het taalmodel GPT-3 van OpenAI. GPT-3 is een AI-systeem dat is getraind om zelfstandig geloofwaardige teksten te genereren. Het systeem kan in feite 1 ding heel erg goed: het volgende woord in een bepaalde zin voorspellen. Daardoor kan GPT-3 volledige teksten produceren die soms lijken op menselijke teksten. Het computersysteem heeft daarbij overigens geen weet van de ‘betekenis’ van woorden, maar is vooral goed in het doen van woord-voorspellingen.

Het is dus eigenlijk een supergeavanceerde auto-complete functie, zoals je dat als simpele versie misschien ook herkent van je telefoon wanneer je aan het typen bent.

Hoewel OpenAI de code van het model niet open-source heeft aangeboden, heeft het wel een API gebouwd om te experimenteren met de mogelijkheden van het model.

Ik verdiep mij al langere tijd in dit systeem; het is onderdeel van een uitgebreidere trend die ik volg: 'Synthetische Media'. Check bijvoorbeeld mijn rapport 'Machines met verbeeldingskracht'.

Anyway, deze week ging een opinieartikel viraal van The Guardian: "A robot wrote this entire article. Are you scared yet, human?" Een artikel dat zogenaamd 'volledig geschreven' was door GPT-3.

En dat vond ik toch wat teveel misleiding. Teveel clickbait.

Onterecht werd er bijvoorbeeld de suggestie gewekt dat het GPT-3 systeem een coherent en reflectief artikel kon schrijven. Niet waar.

Wat bleek bijvoorbeeld; het artikel van The Guardian was samengesteld uit de beste alinea's van 8 verschillende artikelen die door GPT-3 waren geschreven. Ja.. zo kan ik het ook. Het artikel wekt alles bij elkaar ten onrechte hoge verwachtingen over kunstmatige intelligente software. Er was nog wel wat meer mis. Dat lees je in mijn Twitter Thread hieronder....  

Read more...
Linkedin

Want to receive more content like this in your inbox?