En poesiskrivande AI har precis presenterats. Det är ganska bra.

ගැටළු ඉවත් කිරීම සඳහා අපගේ මෙවලම උත්සාහ කරන්න

Du kan själv prova OpenAI:s kontroversiella språk-AI.

Javier Zarracina / Vox

Denna berättelse är en del av en grupp berättelser som kallas Framtid perfekt

Att hitta de bästa sätten att göra gott.

I våras gjorde det Elon-Musk-grundade AI-forskningslabbet OpenAI ett stänk med en AI-system som genererar text . Det kan skriva övertygande falska recensioner, falska nyhetsartiklar och till och med poesi.

Nu har allmänheten en chans att prova det - åtminstone en begränsad version av det. Till en början hade företaget släppt en extremt begränsad version av systemet, med hänvisning till oro för att det skulle missbrukas. Den här månaden släppte OpenAI en mer kraftfull version (även om den fortfarande är betydligt begränsad jämfört med det hela). Du kan kolla upp det själv .

Sättet det fungerar på är otroligt enkelt. En användare ger systemet, kallat GPT-2, en uppmaning - några ord, ett textutdrag, ett avsnitt från en artikel, vad har du. Systemet har tränats, på data hämtade från internet, för att förutsäga nästa ord i avsnittet - vilket betyder att AI kommer att förvandla din uppmaning till en nyhetsartikel, en novell eller en dikt. (Du kan prova den senaste versionen av GPT-2 på en privat webbplats som drivs av maskininlärningsingenjören Adam King .)

Resultaten kan vara ganska sofistikerade. När Jag testade det , jag matade GPT-2 med början på berättelser om snöstormar i nordväst, om universitetsstudenter och om själva GPT-2. Systemet tog sedan det därifrån och uppfann imaginära vetenskapsmän att citera och imaginära organisationer att citera (och det var till och med entusiastisk över AIs snabba framsteg).

OpenAI beslutade initialt att inte släppa hela systemet till allmänheten, av rädsla att det skulle kunna användas av illvilliga aktörer för att överskölj oss alla med falska nyheter. Istället släppte den mindre och mindre kapabla versioner – en spridning av utrullningen som OpenAI hoppas ska göra det möjligt för forskare att utforska systemet och lära av det, samtidigt som de potentiella riskerna håller sig borta.

AI blir mer sofistikerad - och det är en stor sak. Det har potential att hjälpa oss att ta itu med några av de största problemen i vår tid, från läkemedelsutveckling till ren energi. Men forskare oroar sig för att det kan få oavsiktliga konsekvenser, öka ojämlikheten och, när systemen blir tillräckligt kraftfulla, till och med posera verklig fara . Vi funderar fortfarande på hur vi ska balansera AI:s fördelar mot dess potentiella faror.

Folk brukade säga att AI inte kunde vara kreativ. Nu kan det.

Även den mindre, mindre kapabla versionen av GPT-2 är kraftfull nog att komponera intressant poesi och fiktion, och det är lätt att se hur de mer kraftfulla versionerna skriver så övertygande falska nyheter.

Här är några utdrag ur dikter som GPT-2 (den minsta offentliga versionen) har skrivit, tack vare Gwern Branwen , en forskare som tränade modellen att göra poesi specifikt genom att använda en stor korpus av dikter för data.

I deras lilla rum med dörren på glänt

Och ljuset som hänger på väggen på glänt,

Jag har stött på ordet Rise

Med ett ansikte så gravt och platt som du vill.

Det enda jag minns av Rise

Är hur det får dig att må - så dåligt, så dåligt.

Och jag har stött på många ord ikväll

Det är så som Rise - så som - så vaga, så vaga.

Elegans och konstnärlig kraft,

Men Rise är långt över resten,

Och jag kan inte höra - eller se - ordet,

Jag kommer bara att sluta här (jag slutar om jag kan).

Om du inte vet vad Rise betyder, försök.

Här är en till:

Och innan stormens moln blåste,

Hans själ var med världen som spelade.

Han såg till stjärnorna och stjärnorna log,

Och månen i himlen såg ut;

Och när han tittade, såg han hennes ljus,

Och hela himlen log med honom.

När vindar och stormar flyger,

När översvämningar och bränder misslyckas,

Som deras vaknar äng och kärr,

Det är man-barnets hjärta som längtar.

Och jag - jag ska vara bunden,

Med de gråhåriga, starka, gamla,

Till jorden och de dödas gravar,

Vars fötter mejas ner, när de ligger;

Och jag ska vila mitt trötta huvud,

I evighetens tystnad,

I Guds fridfulla armar.

Dessa är ... inte dåliga! Men det betyder inte att AI verkligen kan förstå poesi, eller hur? Det är mest sant - men det beror på hur du tänker om det.

En förklaring till hur människor förstår världen är att vi bygger en väv av associationer mellan relaterade begrepp och idéer, en förståelse som låter oss förutse vad som kommer att hända härnäst. Det låter kusligt nära vad GPT-2 gör.

Naturligtvis är systemet i grunden väldigt begränsat - det fungerar bara med text, det blir mindre sammanhängande allt eftersom det fortsätter, och det producerar ofta nonsens dumheter. Men även inom dessa gränser är dess produktion fascinerande. När AI-system blir mer sofistikerade blir det svårare att säga saker som att bara människor kan vara kreativa eller att bara människor verkligen kan förstå saker.

Vi ser potentialen med oövervakat lärande

Vi har gjort enorma framsteg inom naturlig språkbehandling under det senaste decenniet. Översättningen har förbättrats och blivit så hög kvalitet att du kan läsa nyhetsartiklar på andra språk. Google demonstrerade förra sommaren att Google Assistant kan ringa telefonsamtal och boka möten samtidigt som det låter som en människa (även om företaget lovade att det inte kommer att använda vilseledande taktik i praktiken).

AI-system ser liknande imponerande vinster utanför naturlig språkbehandling. Nya tekniker och mer datorkraft har gjort det möjligt för forskare att uppfinna fotorealistiska bilder, utmärka sig i spel för två spelare som Go och tävla med proffsen i strategispel som t.ex. Star Craft och DOTA .

Men även för de av oss som är vana vid att se snabba framsteg i det här utrymmet är det svårt att inte bli imponerad när man spelar med GPT-2.

Hittills har forskare som försöker få världsrekordresultat på språkuppgifter finjusterat sina modeller för att prestera bra på den specifika uppgiften i fråga - det vill säga AI:n skulle tränas för varje uppgift.

OpenAI:s GPT-2 behövde ingen finjustering: Den gav rekordprestanda vid många av de kärnuppgifter vi använder för att bedöma språk-AI:er, utan att någonsin ha sett dessa uppgifter förut och utan att vara specifikt utbildade för att hantera dem. Det började också visa en viss talang för läsförståelse, sammanfattning och översättning utan någon explicit träning i dessa uppgifter.

GPT-2 är resultatet av ett tillvägagångssätt som kallas oövervakat lärande. Här är vad det betyder: Det dominerande tillvägagångssättet i branschen idag är övervakat lärande. Det är där du har stora, noggrant märkta datamängder som innehåller önskade ingångar och önskade utdata. Du lär AI:n hur man producerar utgångarna givet ingångarna.

Det kan ge fantastiska resultat, men det kräver att man bygger enorma datamängder och noggrant etiketterar varje databit. Och det är värt att notera det övervakat lärande är inte hur människor skaffar sig färdigheter och kunskaper. Vi drar slutsatser om världen utan noggrant avgränsade exempel från övervakat lärande.

Många människor tror att framsteg i allmänna AI-kapaciteter kommer att kräva framsteg inom oövervakad lärande — det vill säga där AI:n bara utsätts för massor av data och måste ta reda på allt annat själv. Oövervakat lärande är lättare att skala eftersom det finns mycket mer ostrukturerad data än det finns strukturerad data, och oövervakat lärande kan generalisera bättre över uppgifter.

Att lära sig läsa som en människa

En uppgift som OpenAI använde för att testa kapaciteten hos GPT-2 är ett berömt test inom maskininlärning, känt som Winograd schema test . Ett Winograd-schema är en mening som är grammatiskt tvetydig men inte tvetydig för människor - eftersom vi har sammanhanget att tolka den.

Ta till exempel meningen: Trofén får inte plats i den bruna resväskan eftersom den är för stor.

För en mänsklig läsare är det uppenbart att detta betyder trofé är för stor, inte för att resväskan är för stor, eftersom vi vet hur föremål som passar in i andra föremål fungerar. AI-system kämpar dock med frågor som dessa.

Innan den här artikeln fick toppmoderna AI:er som kan lösa Winograd-scheman rätt 63,7 procent av tiden, säger OpenAI. (Människor tar nästan aldrig fel.) GPT-2 får dessa rätt 70,7 procent av gångerna. Det är fortfarande långt ifrån prestanda på mänsklig nivå, men det är en slående vinst jämfört med vad som tidigare var möjligt.

GPT-2 satte även rekord på andra språkuppgifter. LAMBADA är en uppgift som testar en dators förmåga att använda sammanhang som nämnts tidigare i en berättelse för att slutföra en mening. Den tidigare bästa prestandan hade 56,25 procents noggrannhet; GPT-2 uppnådde 63,24 procents noggrannhet. (Återigen, människor får dessa rätt mer än 95 procent av tiden, så AI har inte ersatt oss ännu - men det här är ett betydande hopp i kapacitet.)

Sam Bowman, som arbetar med bearbetning av naturligt språk vid NYU, förklarade via e-post varför det finns en viss skepsis mot dessa framsteg: modeller som denna kan ibland se bedrägligt bra ut genom att bara upprepa de exakta texterna som de tränades på. Till exempel är det lätt att ha sammanhängande stycken om du plagierar hela stycken från andra källor.

Men det är inte vad som händer här, enligt Bowman: Det här är inrättat på ett sätt att det inte riktigt kan göra det. Eftersom det väljer ett ord i taget är det inte plagiat.

Ett annat skeptiskt perspektiv på AI-framsteg som denna är att de inte speglar djupa framsteg i vår förståelse av datorsystem, bara ytliga förbättringar som kommer från att kunna använda mer data och mer datorkraft. Kritiker hävdar att nästan allt som förespråkas som ett AI-framsteg egentligen bara är stegvisa framsteg från att lägga till mer datorkraft till befintliga metoder.

Teamet på OpenAI bestred det. GPT-2 använder en nyligen uppfunnen neural nätverksdesign som kallas Transformer, som uppfanns för 18 månader sedan av forskare vid Google Brain. En del av vinsterna i prestanda är förvisso tack vare mer data och mer datorkraft, men de drivs också av kraftfulla senaste innovationer på området – som vi förväntar oss om AI som fält förbättras på alla fronter.

Det är mer data, mer beräkning, billigare beräkningar och arkitektoniska förbättringar - designad av forskare på Google för ungefär ett och ett halvt år sedan, berättade OpenAI-forskaren Jeffrey Wu för mig. Vi vill bara prova allt och se vart de faktiska resultaten tar oss.

Genom att inte släppa systemet uppvaktade OpenAI kontroverser

OpenAI:s tillkännagivande om att de begränsade frisläppandet av systemet gav blandade reaktioner - vissa människor var stödjande, andra frustrerade.

OpenAI har varit aktiva i att försöka ta reda på hur man gör begränsa risken för missbruk av AI , och den har kommit fram till att i vissa fall är den rätta lösningen att begränsa vad den publicerar.

Med ett verktyg som detta, till exempel, skulle det vara lätt att förfalska Amazon-recensioner och pumpa ut falska nyhetsartiklar på en bråkdel av den tid en människa skulle behöva. En lite mer sofistikerad version kan vara tillräckligt bra för att låta eleverna skapa plagierade uppsatser och spammare förbättra sina meddelanden till mål.

Jag är orolig för att trolly 4chan-skådespelare genererar godtyckligt stora mängder innehåll som är sexistiskt och rasistiskt, sa OpenAI policychef Jack Clark till mig. Han oroar sig också för skådespelare som gör saker som desinformation, som är mer sofistikerade, och påpekar att det kan finnas andra vägar för missbruk som vi ännu inte har tänkt på. Så OpenAI håller de mest kraftfulla versionerna av verktyget offline för nu, medan alla kan väga in hur man använder AI: er som dessa på ett säkert sätt.

Men kritiker anser att att hålla tillbaka de största versionerna av modellen inte skulle minska riskerna mycket. Jag är övertygad om att en enda person som arbetar ensam med tillräckligt med beräkningsresurser skulle kunna återskapa dessa resultat inom en månad eller två (antingen en hobbyist med mycket utrustning och tid, eller mer troligt, forskare på ett teknikföretag), skrev Bowman till mig. Med tanke på att det är standardpraxis att göra modeller offentliga, försenar detta beslut bara lanseringen av sådana modeller med en kort tid.

Andra kritiker klagade på att häpnadsväckande release av modellen egentligen mest tjänar till att få OpenAI mer publicitet , uppnått genom att väcka till synes orimliga farhågor om vad modellen skulle kunna göra.

Människor påpekar att andra AI-labb har utvecklat program som är lika sofistikerade och släppt dem utan en förlängd releaseprocess eller efterlyser ett samtal om säkerhet. Det är sant så långt det går, men jag tror att det finns ett starkt argument för att de andra labben inte är tillräckligt försiktiga - och att de också borde försöka få till en konversation om nackdelarna och farorna med sina nya uppfinningar innan de släpper lös dem på internet.

Det är inte att säga att all AI-forskning ska fortsätta i hemlighet härifrån - eller ens att de större GPT-2-modellerna inte ska släppas. Hittills har folk inte använt GPT-2 för spam; de har använt det för poesi. I takt med att AI blir mer sofistikerad kommer det att vara en av våra största utmaningar att ta reda på hur man möjliggör de goda användningarna utan de dåliga.


Anmäl dig till Future Perfect-nyhetsbrevet. Två gånger i veckan får du en sammanfattning av idéer och lösningar för att tackla våra största utmaningar: förbättra folkhälsan, minska människors och djurs lidande, lindra katastrofrisker och – för att uttrycka det enkelt – bli bättre på att göra gott.