Jag har experimenterat en del med textgenerering med maskininlärning det senaste året, men inte varit så imponerad av resultatet. På engelska har det kommit en del halvspännande texter men det har liksom hela tiden varit uppenbart att det är nonsens-texter.
I februari visades en ny sorts modell upp av OpenAI. Den kallas GPT-2 men företaget ville inte släppa den fri för experiment. De skrev att den var alltför farlig för det. De textfragment som de visade upp var roliga, men det var omöjligt att veta hur lång tid de hade tagit att generera eller hur många tråkiga genererade texter de hade fått titta på innan de hittade något som var intressant. Jag tänkte att det mest var ett marknadsföringstrix att säga att modellen var för farlig.
Härom dagen blev modellen allmänt tillgänglig, i begränsad form, via sidan TalkToTransformer, och jag måste säga att potentialen är enorm. Det här är en modell som just lanserats, och man kan föreställa sig väldigt mycket förbättringar under den närmaste tiden. Här är några exempel, där min prompt är i fetstil.
Den här kändes lite som humor, som en absurd teaterpjäs. Det intressanta är hur mycket struktur den har som stämmer med "Dear"-tilltalet i prompten.
I den här får man verkligen fundera på om det är en verklig text. Om en student hade använt en sån här textgenerator hade man antagligen fått lägga väldigt lång tid på att hitta det, framför allt om studenten hade fixat till det mest uppenbara i efterhand.
Eftersom jag håller på mycket med etik och IT tänkte jag att jag skulle testa några lite mer kontroversiella ämnen, och då blev det inte lika roligt längre. Det här var mycket värre än jag kunnat föreställa mig i min vildaste fantasi:
Och här är ett exempel till:
Det är väldigt spännande och nästan helt ofattbart att se detta i en tid när bias inom AI faktiskt börjar diskuteras i ett bredare sammanhang, och där översättningstjänster har långa förklaringar om exempelvis varför könsspecifika översättningar görs som de görs.
Jag fruktar för den dag när alt-right-sidorna börjar massgenerera text med de här verktygen, eller när folk börjar läsa den här sortens texter och ta dem för sanna.
När OpenAI bedömde att det här var alltför farlig tror jag att de gjorde en korrekt bedömning.
/Simon
Comments
You can follow this conversation by subscribing to the comment feed for this post.