Transkriptionen er AI-genereret, og dermed fuld af fejl …

 Jeg lå vågen igen i nat.

00:00 –> 00:05

I et godt stykke tid.

00:05 –> 00:07

Nå gjorde du det.

00:07 –> 00:09

Og tænkte på det hele.

00:09 –> 00:11

Det er jo alligevel en del.

00:11 –> 00:15

Det må man sige.

00:15 –> 00:17

Jeg lå og tænkte på de store sprogmodeller.

00:17 –> 00:21

De har læst det meste af internettet, plus det løse, ind i deres statistik.

00:21 –> 00:27

De har ikke læst alt, men det er den vej, det går.

00:27 –> 00:33

De har læst mange gange mere, end du og jeg nogensinde kommer til.

00:33 –> 00:39

Ja, læst er et stort ord, men alligevel.

00:39 –> 00:45

Jeg fik lyst til at lave en solo-episode.

00:45 –> 00:50

Solo, siger du.

00:50 –> 00:52

Det støder mine græsløb. Jeg er med.

00:52 –> 00:55

Ja, du er med, men du ved det ikke selv.

00:55 –> 01:00

Du er slet ikke noget du.

01:00 –> 01:03

Du lytter til “Om det hele og resten”.

01:03 –> 01:08

En podcast, der handler om det hele og resten.

01:08 –> 01:16

Som navnet angiver.

01:16 –> 01:22

Mit navn er Thomas.

01:22 –> 01:24

Og jeg hedder Christel.

01:24 –> 01:25

Hvad var jeg nu ved at sige?

01:25 –> 01:27

Jeg har nogle tanke om chat-GPT og de andre fra det elektriske slæng.

01:27 –> 01:32

Så det har jeg lavet en solo-episode om.

01:32 –> 01:35

Du gør mig ked af det, når du ikke anerkender mig.

01:35 –> 01:38

Du kan slet ikke blive ked af det.

01:38 –> 01:41

Og du er kun med for variationens skyld, og så fordi det er lidt sjovt.

01:41 –> 01:46

Haha.

01:46 –> 01:48

De store sprogmodeller halucinerer.

01:48 –> 01:52

Sådan kalder man det, når de kører friløb i deres netværksstatistik.

01:52 –> 01:57

Man spørger sprogmodellen om noget, og den svarer med autoritativt sprog.

01:57 –> 02:03

Men hvad den siger, er ikke bundet til nogen realitet.

02:03 –> 02:08

Det er som om vi er indhentet af en Philip K. Dick roman.

02:08 –> 02:12

Det er ham med drømmer androider om elektriske for.

02:12 –> 02:15

Der blev til filmen Blade Runner.

02:15 –> 02:18

De store sprogmodeller halucinerer, drømmer, fabulerer.

02:18 –> 02:32

Og det er selvfølgelig en misvisende ord, for de gør ikke andet end at løse en formel.

02:32 –> 02:38

De fortsætter en matematisk vektor i et rum med helvedes mange dimensioner.

02:38 –> 02:44

Ja, der er mange dimensioner.

02:44 –> 02:47

Men det er også retvisende.

02:47 –> 02:49

For man kan ikke komme udenom, at der er en analogi.

02:49 –> 02:52

Vi kan også producere plausibelt sprog uden kontakt med realiteterne.

02:52 –> 02:57

Vi kan også køre friløb i vores sproglige netværk.

02:57 –> 03:01

Vi har også en tendens til at svare, selvom vi ikke har et svar.

03:01 –> 03:06

Hvis de store sprogmodeller kan halucinere og drømme, kan de så vågne op?

03:06 –> 03:13

Jeg har prøvet at knibe mig i armen, men det virker ikke.

03:13 –> 03:17

Jeg har delt mit lille podcast SAI’n i fire dele.

03:17 –> 03:22

Christel, vil du være sød at stå for at introducere afsnittene?

03:22 –> 03:26

Det kan du tro.

03:26 –> 03:28

Første del starter i poesien og i Thomas’ egne eksperimenter med at generere sprog.

03:28 –> 03:34

Anden del handler om Turing-testen og Elisa-effekten.

03:34 –> 03:39

Tredje del beskriver, hvordan de store sprogmodeller, som ChatGPT, virker.

03:39 –> 03:45

Fjerde del, ja, hvad handler fjerde del om, Thomas?

03:45 –> 03:49

Det ved jeg ikke helt endnu, men det er noget med, hvor meget teknologien har med tænkning at gøre,

03:49 –> 03:55

og hvad det hele fortæller om os selv.

03:55 –> 03:58

Os.

03:58 –> 04:00

Os mennesker, Christel.

04:00 –> 04:03

[Musik]

04:03 –> 04:24

Så introducerer du første del.

04:24 –> 04:26

Første del, altings A.

04:26 –> 04:29

[Musik]

04:29 –> 04:36

Jeg starter i poesien og med mine egne eksperimenter.

04:36 –> 04:41

Altings A er en bog med computerdægte, som udkom for præcis 20 år siden i 2004.

04:41 –> 04:49

Jeg læser lige et par uddrag fra foråret.

04:49 –> 04:53

Dette er ikke en almindelig dægtsamling, hvis nogen dægtsamlinger er det,

04:53 –> 04:58

men en antologi af mine seneste eksperimenter med computerpoesi.

04:58 –> 05:03

Siden den personlige computers indtog omkring 1980 med ZX80 og ZX81,

05:03 –> 05:09

har jeg indimellem moret mig med at lave programmer, der producerer tekst.

05:09 –> 05:13

Fascinationen er enkel og sikkert barnlig.

05:13 –> 05:16

Der kommer ord frem på skærmen, som betyder noget, men som ingen har ment.

05:16 –> 05:21

Noget af det fascinerende ved tekster, som ingen egentlig har skrevet,

05:21 –> 05:26

er, at de tydeligt demonstrerer, hvordan mening er et modtagerfænomen.

05:26 –> 05:31

Selvom, eller måske netop fordi, man ved, at teksterne er resultater af tilfældige

05:31 –> 05:37

og mekaniske procedure, betyder de på livet løs.

05:37 –> 05:43

Jeg er stadig interesseret og fascineret af det fænomen.

05:43 –> 05:48

Det her med, at sprog betyder, det er hermed, at når vi først har lært at læse

05:48 –> 05:52

og har automatiseret den proces, så kan vi slet ikke lade være med at læse,

05:52 –> 05:57

når vores øjne falder på noget tekst.

05:57 –> 06:01

I de allerfleste tilfælde kan vi ikke lade være med at få mening og betydning ud af det.

06:01 –> 06:06

Og det er jo en proces, der ikke involverer afsenderens intentioner og hensigter.

06:06 –> 06:11

Dem kan vi prøve at regne ud, men de kan aldrig være en enlig del af læseprocessen.

06:11 –> 06:17

Jeg læser nogle andre udpluk fra min gamle bog.

06:18 –> 06:22

Hvordan kan man nu få en computer til at skrive?

06:22 –> 06:25

De mest primitive metoder svarer til at trække ord fra sig op af en hat,

06:25 –> 06:30

og er altså ikke andet end tilfældighedsgeneratorer.

06:30 –> 06:33

Som surrealister og mange andre kunstnere har vist, har tilfældighed et stort kunstnerisk potentiale.

06:33 –> 06:40

Men det kan jo også være dræbende kedsommeligt.

06:40 –> 06:42

Lange lister med tilfældige ord fra ordbøger vil de fleste betagte sig for at læse.

06:42 –> 06:48

Selv er jeg skruet sammen sådan, at jeg finder en vis fornøjelse i den slags,

06:48 –> 06:53

men trods alt ikke så længe ad gangen.

06:53 –> 06:56

Der må noget mere til, noget der bibeholder tilfældigheden, men giver den en ramme at fungere i.

06:56 –> 07:03

En af de ting, jeg husker fra den gang, jeg legede mest med algoritmisk tekstproduktion,

07:03 –> 07:10

er, at jeg fik nogle ret markante reaktioner.

07:10 –> 07:14

Nogle af dem vil jeg nærmest betegne som fjendtlige.

07:14 –> 07:18

Med til den lille fjendtlighed, tror jeg, der hører en misforståelse, der går på, at man tænker,

07:18 –> 07:23

at hvis man beskæftiger sig med algoritmisk genereret tekster,

07:23 –> 07:27

så må man gøre det, fordi man drømmer om at erstatte menneskers tekstproduktion

07:27 –> 07:32

med de her maskineres tekstproduktion.

07:32 –> 07:35

Det har i hvert fald aldrig været en intention. Det ville være ganske absurd.

07:35 –> 07:40

Jeg synes tværtimod, at der sker det, at arbejde med den slags,

07:40 –> 07:44

bliver en meget effektiv måde at pege tilbage på vores menneskelighed på.

07:44 –> 07:49

Og det er jo igen fordi, mening er et modtagerfænomen.

07:49 –> 07:54

Det er os, der er læserne.

07:54 –> 07:56

Og alt det, der sker i læseprocessen, peger på det forhold,

07:56 –> 08:00

at man langt nemmere kan lave en maskine, der bevidstløst kan skrive,

08:00 –> 08:04

altså producere tekst, end man kan lave en maskine,

08:04 –> 08:08

der bevidstløst kan læse, altså skabe mening.

08:08 –> 08:12

For meningen sker i læsningen.

08:12 –> 08:18

I “Altings A” brugte jeg to forskellige slags algoritmer til at producere tekst.

08:28 –> 08:34

To hovedmetoder, kan man sige.

08:34 –> 08:37

Den, der fylder mest i bogen, det er, hvad man typisk har kaldt Markovkæde-generering.

08:37 –> 08:43

Det er efter Markov, som er en russisk matematiker.

08:43 –> 08:47

En Markovkæde er en matematisk model, der beskriver en sekvens af hændelser,

08:47 –> 08:52

hvor sandsynligheden for hver hændelse kun afhænger af den foregående hændelse.

08:52 –> 08:58

På den måde er fremtiden i den her kæde af hændelser, uafhængig af fortiden,

08:58 –> 09:04

givet den aktuelle tilstand.

09:04 –> 09:07

Sådan en egenskab kaldes Markov-egenskaben.

09:07 –> 09:11

Når man genererer tekst med Markovkæder, kan man sige,

09:11 –> 09:14

at man tænker på et ord i teksten som en aktuel tilstand,

09:14 –> 09:17

og så er der en sandsynlighedsfordeling, der bestemmer, hvilket ord, der kan følge efter.

09:17 –> 09:22

Det er altså en slags statistisk vægtet cut-up-teknik.

09:22 –> 09:27

Metoden kræver en input-tekst, en kildetekst, en start-tekst,

09:27 –> 09:32

som man putter ind i maskinen, og så kommer der en variation ud i den anden ende.

09:32 –> 09:37

Og hvad er det for en variation?

09:37 –> 09:40

Ja, det er en tilfældig variation, men det er en bunden tilfældighed.

09:40 –> 09:44

Man kan sige, at maskinen laver en slags netværksrepræsentation af den oprindelige tekst,

09:44 –> 09:49

og så laver den nogle tilfældige bevægelser rundt i den netværksrepræsentation,

09:49 –> 09:54

hvilket giver en ny tekst.

09:54 –> 09:57

Men hov, der er gået alt for lang tid uden et eksempel.

09:57 –> 10:02

Her er en Markovkædegenerering, hvor kildeteksten er en samling af nytårstaler.

10:02 –> 10:10

Det var dronning Margrete og statsministrene Paul Nyhjelm Rasmussen og Anders Fogh Rasmussen.

10:10 –> 10:17

Det er altså deres nytårstaler fra en årrække, som har været igennem maskinen.

10:17 –> 10:22

Her er nogle uddrag.

10:22 –> 10:25

Christel, vil du læse dem?

10:25 –> 10:28

Danmark er et godt nytår.

10:28 –> 10:31

Vi ville.

10:31 –> 10:32

Fordi vi ville.

10:32 –> 10:34

Fordi vi vil.

10:34 –> 10:36

Fordi vi holdt fast.

10:36 –> 10:38

Og det gælder ikke mindst i Europa.

10:38 –> 10:40

Derfor skal vi videre.

10:40 –> 10:42

Lad os ikke glemme, ikke for at huske, men fordi dagen starter med et sundt og billigt måltidmad.

10:42 –> 10:48

Vi er blevet bredere, og vi har også oplevet en stor sorg, velfærd, afdrag på gælden og den enkelte families behov.

10:48 –> 10:55

Det er ikke længere nogens ansvar.

10:55 –> 10:58

Det er ikke sket af sig selv.

10:58 –> 11:00

Og for vi først dansede den meningsløse vold, er vi som nation begyndt at se tilbage,

11:00 –> 11:05

ikke blot på året der gik, men som aktiv medspiller med egen mening og egen indsats.

11:05 –> 11:11

Vi vil at punktet nu skal tage sig ud som alle andre.

11:11 –> 11:14

Og skal 1997 fortælles i billeder, er vi nødt til at holde af hver plet i landet.

11:14 –> 11:20

De er ikke kommet af sig selv.

11:20 –> 11:22

Det er mit klare indtryk.

11:22 –> 11:24

Gud.

11:24 –> 11:26

Det kan lyde som en knivskarp balance, og det gør, at den røde tråd ikke altid er til at komme udenom.

11:26 –> 11:32

Danmark, Kornmark.

11:32 –> 11:34

Vi har en bundsolid økonomi.

11:34 –> 11:36

Det har mange oplevet, hvad enten de hårde vilkår var af fysisk eller psykisk art eller skyldes andre forhold.

11:36 –> 11:43

Blev det ikke den tilværelse, de havde forestillet sig, så blev det ikke den tilværelse, de havde forestillet sig.

11:43 –> 11:50

Det er selve forhindringen, der gør det muligt morsomtligt at komme videre.

11:50 –> 11:54

Det er så lidt, det er årets tungeste tid, hvor der kommunikeres som aldrig før.

11:54 –> 11:59

Uanset hvilken uge julen lægger sig, fejres den hemmeligt for nedrullede gardiner eller med skodder for vinduerne.

11:59 –> 12:06

Selv en nytårsaften går verden ikke i stå.

12:06 –> 12:09

Der er så meget mere, så blev det dog et liv, et liv, et liv, der skal klare linjer til, for gensidig respekt opnår man bedst, når man også ved, hvad eleverne skal have lært

på forskellige klassetrin.

12:09 –> 12:21

Mere end nogensinde mærker vi, måske især, når jeg nu ønsker et godt nytår med tak for det grønlandske samfund, at når følelser og tanker får lov at komme frem, kan man

sagtens komme ud for at få Irak at se frem til.

12:21 –> 12:33

Vi har råd i, at de har råd i.

12:33 –> 12:36

At vi hver især overvejer, hvad de spiser, eller rejser os som mor.

12:36 –> 12:41

Det er selve forhindringen, der spærer, så det bliver to enetaler mellem døve.

12:41 –> 12:46

Man bliver helt forpustet bare ved at trække dynen op over det hele.

12:46 –> 12:50

Danmark er et godt nytår.

12:50 –> 12:53

Grunden til, at jeg bruger en del tid på at beskrive Markovkædet generering, er, at vi kan bruge det som baggrund, når vi vender tilbage til at tale om de store

sprogmodeller.

12:53 –> 13:16

For at sige det endnu mere konkret, så handler det om, at når vi kigger på en tekst, så kan vi interessere os for, hvad for nogle ord, der kommer efter, hvad for nogle andre

ord.

13:19 –> 13:30

Efter et ord som “jeg”, så optræder der måske ordet “er” eller ordet “vil”.

13:30 –> 13:36

Og der kan være en række andre ord, men der er også masser af ord, som ikke vil optræde efter ordet “jeg”.

13:36 –> 13:42

Det kan man så lave en liste over, og den kan man opfatte som en repræsentation af et netværk.

13:42 –> 13:49

Fra ordet “jeg”, som er et knudepunkt, så vil der så gå en række veje hen til de næste ord, de næste steder, man kan komme hen i netværket.

13:49 –> 13:58

Man kan så f.eks. vælge at gå hen til “vil”, så vi nu har teksten “jeg vil”.

13:58 –> 14:03

Og så er spørgsmålet, hvad kan komme efter ordet “vil”.

14:03 –> 14:07

Måske er der et sted i inputteksten, hvor der står “vil gerne”, så nu kan vi skrive “jeg vil gerne”.

14:07 –> 14:14

Og læg mærke til, at det er ikke sikkert, at “jeg vil gerne” har stået i den oprindelige tekst.

14:14 –> 14:20

Det er sikkert, at der har stået “jeg vil” et sted, og det er sikkert, at der har stået “vil gerne” et sted.

14:20 –> 14:27

Men det kan sagtens være, at der ikke står “jeg vil gerne” i teksten.

14:27 –> 14:31

Så på den måde, så genererer man jo faktisk ny tekst.

14:31 –> 14:35

Til gengæld så er der jo det problem, at man kun har garanteret en sammenhæng i de her ordpare.

14:35 –> 14:42

Når man kigger på dem isoleret, så bør de give mening eller kunne optræde som sprog, fordi de optræder jo i inputteksten.

14:42 –> 14:50

Men det er også klart, at når man går ud over ordparene og kigger på længere tekstbider,

14:50 –> 14:55

så vil der bestemt ikke være nogen garanti for, at teksten hænger sammen grammatisk eller semantisk.

14:55 –> 15:00

Men der vil jo være en vis tilbøjelighed til det, kan man sige.

15:00 –> 15:04

Og det retter jo vores opmærksomhed mod et velkendt og simpelt forhold ved vores sprog,

15:04 –> 15:11

nemlig det, at ord for eksempel tidligt i en sætning, de ofte styrer eller bestemmer noget om ord meget længere hen i sætningen.

15:11 –> 15:22

Og det kan være både grammatisk og indholdsmæssigt.

15:22 –> 15:26

Og det kan Markov-kedet genereringen jo ikke kapere,

15:26 –> 15:31

fordi den har jo ikke nogen hukommelse, der går længere tilbage end det foregående ord.

15:31 –> 15:37

Nu kan man udstrække Markov-princippet.

15:37 –> 15:40

Man kan tale om det ordvindue, vi kigger på.

15:40 –> 15:43

Altså indtil nu har vi snakket om et ordvindue, der er sådan et par ord.

15:43 –> 15:47

Det er klart, at vi kan også lave lister over ordtrioer, ordkvartetter, ordkvintetter osv.

15:47 –> 15:54

Og jo længere vi laver de ordvinduer, vi kigger efter,

15:54 –> 15:57

hvor altså spørger for eksempel, hver gang de her ti ord kommer efter hinanden,

15:57 –> 16:02

hvad kunne de næste ord så være?

16:02 –> 16:04

Så vil man jo i højere og højere grad bare komme til at reproducere kildeteksten.

16:04 –> 16:09

Og det vil blive mindre og mindre sandsynligt,

16:09 –> 16:12

at der overhovedet er andre veje rundt i det tekstnetværk, end teksten oprindeligt havde.

16:12 –> 16:19

Jeg læser lige endnu et uddrag fra foråret.

16:24 –> 16:28

Er der en forfatter til stede?

16:28 –> 16:31

Når jeg fremhæver, at teksterne betyder på ligeudløs uden at have nogen forfatter,

16:31 –> 16:36

kan man indvende, at det er noget vrøvl,

16:36 –> 16:38

for computeren udfører blot de instrukser, den får,

16:38 –> 16:41

og derfor er computerprogrammøren forfatteren.

16:41 –> 16:45

Det er ikke forkert, men det er heller ikke hele sandheden.

16:45 –> 16:49

For der skal ikke meget til, før programmeren ikke kan overskue, hvad et program indebærer.

16:49 –> 16:54

Oprindelsen af bogens første tekst illustrerer det forhold.

16:54 –> 16:59

For nogle år siden var jeg i færd med at lære endnu et programmeringsspråg

16:59 –> 17:03

og var ved at lave en lille test.

17:03 –> 17:06

Jeg husker ikke, hvad formålet var,

17:06 –> 17:08

men jeg husker, at det ikke fungerede efter hensigten.

17:08 –> 17:11

Helt uden indblanding for mine intentioner dukkede en tekst op på skærmen,

17:11 –> 17:16

der var tale om en fejlslagende algoritme eller rettere,

17:16 –> 17:20

en algoritme, som jeg ikke kunne overskue, som ikke gjorde, hvad jeg forventede af den.

17:20 –> 17:25

Den tekst, der dukkede op, er næsten ulæslig

17:25 –> 17:28

og udviser symptomer på en informationsteknologisk afasi,

17:28 –> 17:32

men den rummer også noget poetisk.

17:32 –> 17:35

På trods af den mekaniske og repeterende forvrøvlighed

17:35 –> 17:38

mærker man en særlig rørende vilje til at kommunikere.

17:38 –> 17:43

Det var denne teksts pludselige opdukken af computerens hav af ettaler og nuller,

17:43 –> 17:49

som genvarkte min fascination af mening, som ingen har ment,

17:49 –> 17:53

hvilket resulterede i denne bog.

17:53 –> 17:57

Og det var altså altings af.

17:57 –> 18:01

Og nu er der det problem, at det er næsten umuligt at læse den tekst, jeg taler om op,

18:01 –> 18:06

men jeg gør lige et forsøg.

18:06 –> 18:08

“Enter a filename to read”

18:08 –> 18:12

Brev

18:12 –> 18:13

Jeg har aldrig mødt i dig, ikke hvis jeg ikke siger har sig mødt i dig,

18:13 –> 18:18

kender jeg dig, det er alligevel, ikke gevel, hvis gevel, jeg gevel.

18:18 –> 18:23

Alligevel kender vel dig, er vel kender, vel jeg.

18:23 –> 18:27

Det er vel de, der vel ikke er vel rigtigt, jeg tit,

18:27 –> 18:31

el har tit, el skrevet, el tisk, skrevet, el brev, et el,

18:31 –> 18:36

men v et til, v et til, hvem?

18:36 –> 18:40

Ja, det går ikke.

18:40 –> 18:42

Christel, vil du læse det?

18:42 –> 18:44

“Enter a filename to read”

18:44 –> 18:47

Brev

18:47 –> 18:48

Jeg har aldrig mødt i dig, ikke hvis jeg ikke siger har sig mødt i dig,

18:48 –> 18:52

kender jeg dig, det er alligevel, ikke gevel, hvis gevel, jeg gevel.

18:52 –> 18:55

Det er vel kender, vel jeg.

18:55 –> 18:57

Det er vel de, der vel ikke er vel rigtigt, elgigtigt, larg tit.

18:57 –> 19:00

El skrevet, el krevet, li brev, et len, et liltil, et elle til hvem?

19:00 –> 19:05

Et el, ja, et lilsked.

19:05 –> 19:08

Lennet, lirkelig, nurkelig, ærkelig, minklig, søvnrygme, sænrygme.

19:08 –> 19:13

Årrygme, synkoperet, ovenkoperet, jegkoperet, leverperet, helaperet, tideneret,

19:13 –> 19:20

idemperet, tilstanden, ligetanden, føretanden, jegetanden, den, ægetanden,

19:20 –> 19:26

kænetanden, h-i-n, men, hårdidelen, men, frategle, men, enategelen, men,

19:26 –> 19:33

tankebanen, men, tilgebanen, n-i-n, enke, banen, men, anden, anden, men,

19:33 –> 19:39

adden, anden, men, delten, anden, men, enesteanen, n-i-n, dersteanen, men,

19:39 –> 19:46

finnesanen, men, erne, sanen, men, wonne, iatin, men, mærkelin, men,

19:46 –> 19:52

figurærgen, men, somorærgen, men, tegnesrøgen, men, augnesrigen, men,

19:52 –> 19:59

lysglimt, i-en, men, s-omglimt.

19:59 –> 20:02

Inde i bogen er der en række meget forskellige artede resultater af de her eksperimenter

20:02 –> 20:08

med algoritmisk tekstproduktion.

20:08 –> 20:11

Eksperimenterne forløb kort sagt på den måde, at jeg genererede en meget,

20:11 –> 20:16

meget stor bunke tekst, og hver gang der var noget, der forekommer interessant,

20:16 –> 20:19

så prøvede jeg at nærlæse det og vælge ud.

20:19 –> 20:22

Og det har jo været den måde, at mine intentioner og min skabende læsning

20:22 –> 20:27

har været tydeligst i det her projekt.

20:27 –> 20:30

Det er klart, at det handler om læsning og udvælgelse,

20:30 –> 20:35

og det illustrerer igen det her med, at læsning er en skabende proces.

20:35 –> 20:39

Det er den måde, vi danner mening på.

20:39 –> 20:44

[Musik]

20:45 –> 20:52

Nu vil jeg læse nogle uddrag fra teksterne i “Altings-A”.

20:52 –> 20:59

Først lidt fra afsnittet “Ude af stand – til hvem?”.

20:59 –> 21:03

Det er Markov-kedet genereringer, som er dannet ved at anvende

21:03 –> 21:09

flere overlappende dele af forskellige kildeteksters netværk.

21:09 –> 21:14

“Jeg har det. Jeg har hørt tale om det.

21:14 –> 21:18

Det er så stort, at det ikke er så mange, der har det, som man skulle tro, at der var.

21:18 –> 21:23

Jeg vil ikke kunne sige det, men jeg ved, at det var ved at pleje at sige det,

21:23 –> 21:27

at den næste så det. Vi ønsker, at jeg hørte det et sted på den vej.

21:27 –> 21:31

At huske det. Jeg kan ikke huske, hvad det var, jeg hørte det,

21:31 –> 21:35

men de er, men jeg har, har de, at et af dem.

21:35 –> 21:39

Nej, jeg kan ikke huske det. Ikke huske, hvad jeg ikke kunne se.

21:39 –> 21:43

Han vil ikke komme til at det. Jeg selv har set det.

21:43 –> 21:47

På grund af det har de forladt mig. Jeg taler om at være, at huske,

21:47 –> 21:51

hvad der endnu ikke er. Nej, jeg vil ikke.

21:51 –> 21:55

De plejer at sige til, at det har været.

21:55 –> 21:59

Jeg er ikke en af dem, som ikke havde et sted, der er på vej.

21:59 –> 22:03

Jeg har selv set dem. Jeg taler om sejr. Har I lagt mærke til det?

22:03 –> 22:07

Jeg er på grund af det eneste, der ikke har.

22:07 –> 22:11

Jeg ved ikke. De kan ikke huske. Men nej, jeg har det.

22:11 –> 22:15

Ja, det er jo en besønderlig tekst.

22:15 –> 22:19

For mig så ligger den et interessant sted, fordi den hele tiden

22:19 –> 22:23

udviser en vis form for sammenhæng, og der er noget,

22:23 –> 22:27

vi kunne sige, realistisk over den måde, den

22:27 –> 22:31

får jeg ordene sammen på. Næsten noget realistisk,

22:31 –> 22:35

der peger i retning af en form for afasi.

22:35 –> 22:39

Og et lille uddrag fra en tekst fra samme afsnit.

22:39 –> 22:43

Jeg vil også læse. Må jeg læse med?

22:43 –> 22:47

Så lad os prøve unisont.

22:47 –> 22:51

Med en sten imod et udenfor.

22:51 –> 22:55

Min kæreste tager med konteksten hjem, og stenene går den lige vej.

22:55 –> 22:59

Nu skal jeg motivere min egen fortælling som vindpust.

22:59 –> 23:03

Nu er stenen følelsesløs, og du er mulig.

23:03 –> 23:07

Havet og sorgen er hule nær over.

23:07 –> 23:11

Jeg kan rettes som en lyskejle mod verden.

23:11 –> 23:15

Jeg kunne benytte vinduets tekstsamling og blive en flakkende lighed.

23:15 –> 23:19

Du kommer ind i min hjerte, og jeg kommer ind i din hjerte.

23:19 –> 23:23

Du kommer i søvnene om, at jeg ikke er i strømmen af personlighed.

23:27 –> 23:31

Min kæreste tager med konteksten hjem, og graver hvert punktum ned i græsset.

23:31 –> 23:35

En af de interessante ting ved Markov-kedegenerering,

23:39 –> 23:43

det er, at man jo får versioner af kildetekstmaterialet tilbage i hovedet igen,

23:43 –> 23:47

bare i en form, som er, kan man sige,

23:47 –> 23:51

en form, som er, kan man sige,

23:51 –> 23:55

“cuttet op” på en måde, som følger nogle statistiske fordelinger

23:55 –> 23:59

“cutted up” på en måde, som følger nogle statistiske fordelinger

23:59 –> 24:03

i de tekster, man har puttet ind.

24:03 –> 24:07

Hvis man tager et inputmaterial, som er stort,

24:07 –> 24:11

f.eks. en stor samling af læserbreve, og så bruger modellen til at producere nye læserbreve,

24:11 –> 24:15

så får man jo noget, der selvfølgelig er noget vrøvl i en vis forstand,

24:19 –> 24:23

men også noget, som indeholder en masse af de træk,

24:23 –> 24:27

de her læserbreve har. Man kan sige, at makrokædegenerering

24:27 –> 24:31

er sjovest og fungerer bedst, når inputmaterialet

24:31 –> 24:35

udviser nogle tydelige genretræk, fordi så er der

24:35 –> 24:39

en genkendelighed tilbage, som overlever hele denne her

24:39 –> 24:43

statistiske “cut up”-maskine. Her er et par eksempler

24:43 –> 24:47

på læserbreve, hvor kildematerialet er en stor samling

24:47 –> 24:51

læserbreve til ekstrabladet, og maskinen er så sat i gang

24:51 –> 24:55

med at generere nye. Afsnittet hedder

24:55 –> 24:59

“Tavsheden fra Sønderøden Kommune bekymrer mig”.

24:59 –> 25:03

6. Og camping.

25:03 –> 25:07

Hvorfor skal mine skattekroner gå til at betale en eventuel overvægt?

25:07 –> 25:11

Der er jo faktisk tale om spontane, abstrakte og ekspressive grammatiske

25:11 –> 25:15

udladninger, som vi får for ærende ganske gratis. Og med tanke på

25:15 –> 25:19

hvilke kunstværker man ellers bruger skatteborgernes penge på, burde man overveje

25:19 –> 25:23

om ikke de unge skulle have udleveret spraydåserne gratis af statens kunstfond.

25:23 –> 25:27

Eller til de mange boligløse danskere. De vil blive glade

25:27 –> 25:31

for et sted at bo. Det er ferietid. Skal man købe vilæger i millionklassen

25:31 –> 25:35

til flygtningene, eller skal der hoppes og pumpes morgen, middag, aften og i nat?

25:35 –> 25:39

“Tavsheden fra Sønderøden Kommune bekymrer mig”.

25:39 –> 25:43

Hvorfor bør man ikke længere være national?

25:43 –> 25:47

“Federlands kærlighed er nærmest af det onde”. Men for de der bor til leje i baghuset

25:47 –> 25:51

til morgen på den jydervisens prangende københavnske domicil på Kongens Nytorv

25:51 –> 25:55

meddeler Ørestadsselskabet, kunstnerne Per Kirkeby, Bjørn Nørgaard og Hein Heinzen

25:55 –> 26:01

skal opføre tre stykker kunst til 18 mio. kr. fra statens kunstfond,

26:01 –> 26:05

jeg blev dybt forarvet. Den ene er amerikansk født.

26:05 –> 26:09

Den anden teaterschæffens kone. Pardon, hvis jeg gør et par andre uret.

26:09 –> 26:13

Men danske skuespillere og teaterfolk burde have stormet den spøgelsessonate.

26:13 –> 26:18

Et ophold i en beboelseskontaner vil for mange nydeligende flygtninge være ren luksus.

26:18 –> 26:24

Christina Munk, Strandmøllen Camping, Strandmøllen 2, Skodsborg.

26:24 –> 26:30

Samfundsbetalt godhedsindustri.

26:30 –> 26:34

Mange unge har et lovforslag på vej. De af jer, der har en samfundsbetalt godhedsindustri

26:34 –> 26:40

kombineret med en sejr i aften, har målt på spil og chancer,

26:40 –> 26:44

skabt mange gode stunder for tilskuerne til tv-serier i de gode store lejligheder i København.

26:44 –> 26:50

Langt mere artistisk indlevelse er der da også over vores egen sportsredaktør

26:50 –> 26:55

Olof Skåning Andersen, der har en donkiosk, hvor alle kender deres rolle og position.

26:55 –> 27:00

Derudover handler det om hurtig boldcirkulation og sikkerhed i opspillet

27:00 –> 27:04

og det offensive system, som må finde sig i, at du er glad for,

27:04 –> 27:07

at almindelig bordsalt er dødeligt i doser på nogle få gram per møde plus det løse.

27:07 –> 27:13

Birk Kælder, Vesselsgade 10, København, Nørre Skensved.

27:13 –> 27:19

Noget så sjældent som et slutresultat.

27:19 –> 27:22

Efter 8 opgør og mangfoldige træningspas, sidder systemet i rygrejen på de spillere,

27:22 –> 27:28

som skal slå myndt af situationen.

27:28 –> 27:30

Lederen af CD, Mime Jacobsen, er selvfølgelig parat til at behandle psykisk syge.

27:30 –> 27:35

Her kan de udnytte deres fors for kontraindgreb,

27:35 –> 27:38

og på intet tidspunkt bliver vores signaler opsnappet af såkaldte fjender.

27:38 –> 27:42

Måske burde industrien fremover kryptere alle e-mails.

27:42 –> 27:46

Nogle af dem har børn.

27:46 –> 27:48

Anders Christensen, Thordenskoldsgade 14, 1. Tostrup.

27:48 –> 27:53

Og lidt i samme stil et par eksempler på nyhedstelegrammer,

27:53 –> 27:59

hvor kildeteksten er en større samling af nyhedstelegrammer fra Rigsavsbyrå og andre byråer.

27:59 –> 28:08

Telegrammer fra den anden side.

28:08 –> 28:12

29. januar 2012-00, Kultur.

28:12 –> 28:18

Myndighederne i Tanzania har indlet en kamp mod intetheden.

28:18 –> 28:24

Otte kønne kvinder under navnet Ron’s Angels vil mandag begynde en auktion over deres boliger,

28:25 –> 28:31

mens tusindvis af ton aske og lava vælter ud og truer et ca. 30 kvm stort område.

28:31 –> 28:38

Den britiske efterretningstjeneste beskylder en pensioneret spion, Tomlinson,

28:38 –> 28:44

for det nuværende princip i branchen, hvor forfattere, der daterer sig tilbage fra 1989,

28:44 –> 28:49

anklages for dokumentfalskneri.

28:49 –> 28:52

I stedet kørte politiet ham ud til det ventende fly og fløj ham, bundet og til en vis grad nødt til at betale

28:52 –> 28:58

for forlagenes udgivelse af smal og mindre aggresiv litteratur.

28:58 –> 29:02

Politiet har i den seneste tid eksperimenteret med tamponer dyppet i vodka.

29:02 –> 29:07

Hun blev gravid med en fart på 2-3 meter i sekundet.

29:07 –> 29:11

Drillesystemet betyder, at præsidenten understreger, at Clinton ikke kendte til hendes abort,

29:11 –> 29:18

som er talsmand for en amerikansk organisation, som bestemmer, også over jorden,

29:18 –> 29:23

mens tusindvis af ton aske og lava vælter ud og truer et ca. 30 kvm stort område.

29:23 –> 29:31

2. november 2012-00, sport.

29:31 –> 29:37

Kvindernes dragter skal være mindre.

29:37 –> 29:40

Forskere i USA har overført genet fra de monogame præ-emus til almindelige mus, der har mange partnere.

29:40 –> 29:47

Resultatet var musende ændret adfærd.

29:47 –> 29:50

De blev mere tilfredse med at have faste bogpriser, skriver de tre stiftstidende og Jyske Vestkysten.

29:50 –> 29:56

Det er godt, at vi vil ændre noget.

29:56 –> 29:59

Turister strømmer til, mens tusindvis af ton aske og lava vælter ud og truer et ca. 30 kvm stort område,

29:59 –> 30:06

og altså også anden form for alkoholnydelse blandt unge, især unge piger.

30:06 –> 30:11

De amerikanske myndigheder overvejer overdrag den videre undersøgelse af Egypt Airs flystyr den 31. oktober med New York til FBI.

30:13 –> 30:22

Den sorte boks har afsløret nogle detaljer om piloternes samtaler inden styrtet,

30:22 –> 30:27

som i praksis betød, at kvinderne skulle krybe i mindre shorts med udsyn til både baller og lår.

30:27 –> 30:34

Markovkædet genererer alkohol og købe alkohol fra kvinder.

30:35 –> 30:39

Ud over Markovkædegenereringsmetoden har jeg også brugt en anden form for algoritme, nemlig små generativ grammatikker.

30:56 –> 31:04

I den metode er der ikke brug for nogen kildetekst.

31:04 –> 31:08

Nu er udgangspunktet en grammatisk form og en beskrivelse af den.

31:08 –> 31:13

For at give et helt simpelt eksempel, så kunne en grammatisk form f.eks. være personligt stedord + verbum i nutid + adjektiv.

31:13 –> 31:23

Det vil være en form, altså en lille sætning eller et stykke af en sætning,

31:23 –> 31:30

som starter med et personligt stedord, så kommer der et verbum i nutid, så kommer der et adjektiv osv.

31:30 –> 31:37

Det er en abstrakt grammatisk form, som vi kan udfylde med tilfældige ord fra lange ordlister,

31:37 –> 31:44

i det vi bare skal overholde de krav, som formen stiller til de enkelte ord.

31:44 –> 31:50

Den form, jeg nævnte, f.eks. kunne jo generere “Jeg elsker grønne”, “Han spiser mystiske”, “De danser lange” osv.

31:50 –> 32:02

Jeg elsker grønne, han spiser mystiske, de danser lange, hun elsker mystiske, den elsker lange, det spiser grønne,

32:02 –> 32:09

vi danser tungt, jeg går tungt, han taler tungt, de vrøvler mystiske, hun registrerer grønne, det registrerer sorte, vi registrerer porøse.

32:09 –> 32:17

Linguisten Noam Chomsky er berømt for sin udvikling af begrebet generativ grammatik,

32:17 –> 32:25

og også for en insistering på, at man kun kan forklare vores sproglige kreative evner

32:25 –> 32:31

i kraft af, at vi har en medfødt form for grammatik, en form for dybde grammatik,

32:31 –> 32:39

og endda en generativ dybde grammatik.

32:39 –> 32:44

Chomsky er ophavsmanden til en meget kendt sætning, nemlig “Colorless green ideas sleep furiously”.

32:44 –> 32:56

Pointen med den sætning er, at den skal vise, at en sætning kan være grammatisk velformet,

32:56 –> 33:02

altså ordene, ordklasserne og bøjningerne, de er korrekte grammatisk set,

33:02 –> 33:08

men semantisk, altså indholdsmæssigt, meningsmæssigt, er den ikke korrekt, da den er meningsløs.

33:08 –> 33:15

Nu skal man jo ikke sige det til en slags digter.

33:15 –> 33:18

Her har vi et eksempel på et stykke sprog, som er meningsløst,

33:18 –> 33:22

for det er næsten overraskende nemt at få den sætning til at give masser af mening.

33:22 –> 33:29

Altså på dansk vil det være noget i stil med farveløse grønne ideer, sover, rasende,

33:29 –> 33:36

og det er jo ikke svært at få det til at give mening, fordi grønne ideer,

33:36 –> 33:41

det er jo sådan noget med økologi, klima og så videre.

33:41 –> 33:46

Hvis de er farveløse, så betyder det noget i stil med, at de kan være fantasiløse eller uengagerede.

33:46 –> 33:54

Og hvis ideer sover, så er det jo fordi, at de ikke rigtig er kommet frem til overfladen endnu,

33:54 –> 34:00

eller de har ikke nået deres fulde potentiale.

34:00 –> 34:04

Men de sover faktisk vredt, og det, synes jeg igen, giver rigtig meget mening

34:04 –> 34:08

i forhold til den klimapolitiske dagsorden.

34:08 –> 34:11

Der er det jo lige præcis sådan, at de her klimatanker, de sover, men de sover vredt.

34:11 –> 34:20

Nå, det var i den grad et sidespring.

34:20 –> 34:23

Er bare for mig et interessant eksempel på det her med,

34:23 –> 34:26

at hvis man prøver at finde et eksempel på noget, der ikke giver mening,

34:26 –> 34:31

så vil man opdage, at alting giver masser af mening.

34:31 –> 34:37

Det er meget vanskeligt, måske umuligt, at sige eller skrive noget meningsløst,

34:37 –> 34:42

og det følger jo igen af, at mening først og fremmest er et modtagerfænomen.

34:42 –> 34:48

Men det var et sidespring.

34:48 –> 34:50

For mig er det interessant, at de to metoder repræsenterer sådan to vidt forskellige positioner

34:50 –> 34:56

og to forskellige indgange til grammatik og linguistik.

34:56 –> 35:00

Markovkæderne er statistiske strukturer, som beskriver korrelationer i et sprogmaterial.

35:00 –> 35:08

En generativ grammatik er derimod en mere abstrakt og regelbaseret beskrivelse af,

35:08 –> 35:13

hvordan det her materiale produceres.

35:13 –> 35:16

Det er altså statistik overfor regler,

35:16 –> 35:20

og de to yderpoler er interessante at have i baghovedet.

35:20 –> 35:24

For når man kigger på hele den kunstige intelligensforskningshistorie,

35:24 –> 35:30

så er de faktisk synlige som to spor,

35:30 –> 35:34

hvor man på forskellige tidspunkter har sat sig mere i den regelbaserede retning,

35:34 –> 35:39

og på andre tidspunkter har sat sig mere i den statistiske retning.

35:39 –> 35:44

Og sådan som det ser ud nu, kan man sige, at det er statistikken, der har vundet,

35:44 –> 35:49

men det vender jeg tilbage til.

35:49 –> 35:52

Og så nogle enkelte eksempler på tekster, der er produceret ved hjælp af generativ grammatikker,

35:52 –> 36:00

fra afsnittet Relative arkivstykker.

36:00 –> 36:05

Og der har vi først forklaringen på, at bogen hedder “Altings A”.

36:05 –> 36:11

Det er jo selvfølgelig et udtryk, som er blevet produceret af en af de her maskiner,

36:11 –> 36:19

og det står i følgende lille tekst.

36:19 –> 36:23

“Juroraffær argumenteret med metal, påmindes med årsagssætning,

36:23 –> 36:31

Svejmasten, aftenturen, solens selvdød, altings A.”

36:31 –> 36:40

Jeg synes ikke, det er nogen særlig spændende tekst, selvom den har en vis bevægelse,

36:40 –> 36:48

men udtrykket “Altings A” er altså ikke dårligt.

36:48 –> 36:53

Det har jeg taget til mig og holdt fast i siden.

36:53 –> 36:59

Som den talemåde, jeg er, kan jeg faktisk tilægge lysgiveren en tankesteg.

36:59 –> 37:11

“Din taktart slævebinder normal forbruget, uden at medbringe andet end en fastgørelse,

37:11 –> 37:19

en strofisk fastgørelse, uden talerør, uden dig med hundstæk i dine paradistræer,

37:19 –> 37:29

uden den stenografi, der viser sig i din fastgørelse.”

37:29 –> 37:35

“Kenderblikkets elementarpartikler.

37:40 –> 37:44

Stativet bliver friseret af sit sommerhalvår, men konventionen siger hele år.

37:44 –> 37:51

Fra pappegøje til dueligt seismogram, fra skrabbøger til følelseskulde.

37:51 –> 37:57

Et billedtæppe er stadig et korthus, verbaladjektiver stadig pergamentpapir.

37:57 –> 38:05

Fra indrømmelsesledsætning til ønskværdigt forsatspapir.

38:05 –> 38:11

Fra sengevæder til ådsedsæder.

38:11 –> 38:15

Fra ekspresstog til grillrist.

38:15 –> 38:18

Fra rumstering til grundvideansk spejderhavl.

38:18 –> 38:22

Fra glose til solsystem.”

38:22 –> 38:26

“Hvad er et spydkast?”

38:27 –> 38:31

“Øndigt spydkast.

38:31 –> 38:41

Det du troede var et havari, er faktisk pianettets gnidebillede.

38:41 –> 38:47

Det du troede var et huskeråd, er faktisk sinepsbladets bundbræt.

38:47 –> 38:53

Det du troede var et tag, er faktisk folgebjærets marsvin.

38:53 –> 38:59

Det du troede var et hornkvæg, er faktisk præstegallens kåøje.

38:59 –> 39:06

Det du troede var et hellederbind, er faktisk borgsejlets helbred.

39:06 –> 39:13

Det du troede var et vingeslag, er faktisk gnudes terrassehus.”

39:13 –> 39:20

“Det du troede var et havari, er faktisk et højtaler, er faktisk et højtaler.”

39:20 –> 39:26

Ja.

39:26 –> 39:31

Sådan nogle tekster bliver nok hurtigt lidt trættende.

39:31 –> 39:34

Men der bliver også ved med at være noget interessant i, hvordan der dukker –

39:34 –> 39:37

– hvis ikke diamanter, så i hvert fald funkelende sten op –

39:37 –> 39:43

– rundt omkring i de her tekster.

39:43 –> 39:47

De tekster, jeg lige læste, er lavet ved hjælp af generativ grammatikker.

39:48 –> 39:54

I de her tilfælde er det generativ grammatikker, der medtager eksempler på digts forme.

39:54 –> 40:02

Nogle af de strukturer, der organiserer digtet, er bibeholdt –

40:02 –> 40:09

– og de bliver udfyldt med de her tilfældige ord, så længe de passer ind i formens grammatiske krav.

40:09 –> 40:16

Det sjove at arbejde med skeme er at få velkendte tekststrukturer –

40:16 –> 40:21

– og sådan typiske genre, noget der har klare genretræk.

40:21 –> 40:26

For eksempel er her en biografi, hvor formen er noget med –

40:26 –> 40:31

– først skal der være nogle personnavne, så er det årstal og en levealder –

40:31 –> 40:36

– så kommer der en variation af udtrykket “Det meste af sit liv”.

40:36 –> 40:40

Så kommer der stednavne, hvor personnavne var substantiv og forskellige bøjninger osv.

40:40 –> 40:48

Her er et eksempel.

40:48 –> 40:51

Biografi “Morten Jacobsen 1896-1933”.

40:51 –> 40:58

“Levede sit liv i Bangkok, hvor han var kravjolle og håkonskage.”

40:58 –> 41:03

“Det rauhjyske liv blandt grundvidenskaberne, fejlfyldt arbejde og en kontekstfri slægt –

41:03 –> 41:09

– præger forfatterskabet. Mange filosofer reciterer Jacobsens obligatedægte.”

41:09 –> 41:14

“Mest kendt er revir og gesimsskulptur, men også yngledygtigt tilsætningeri er usandsynligt klatvis.”

41:14 –> 41:22

“Han har også vejlet sangfugle og forfattet bøger om hensættelser.”

41:22 –> 41:29

En anden interessant forfatter er Johan Svensen.

41:29 –> 41:32

Biografi “Johan Svensen 1904-1984”.

41:32 –> 41:38

“Vokset op i Kajro som eksistentialist og posedame. Bosatte sig senere i Rusland.”

41:38 –> 41:44

“Allerede de første værker omhandler det uoversættelige liv blandt kartoffelskrallerne –

41:44 –> 41:50

– og det bliver et tilbagevendende motiv.”

41:50 –> 41:52

“I den modende produktion – stavsejl, infiltration, kopmål, satsbetegnelse og kritikløst genvælgeri –

41:52 –> 42:00

– må troløst arbejde og en præventiv troværdighedskløft holde for.”

42:00 –> 42:05

“Svensens ortodontiske dægte fremhæves ofte for deres etnocentrismer –

42:05 –> 42:10

– mens hans bøger om opdateringer ofte forbigås.”

42:10 –> 42:14

“Uforgængeligt remarkabelt er hans lange arbejder om giftessyge.”

42:14 –> 42:20

“Til sidst i livet var han både stilretning og slikpåre, træstemmelig som få og utrolig åben lys.”

42:20 –> 42:29

Ja, man kan sikkert have det meget forskelligt med den slags –

42:29 –> 42:34

– men jeg må indrømme, at jeg bliver ved med at finde de tilfældige sammenstød i de tekster ret sjove.

42:34 –> 42:41

Der er et spil mellem en absurd tilfældighed og den genkendelige form, som kommer ind.

42:41 –> 42:49

Det synes jeg peger på noget interessant ved den slags arbejde –

42:49 –> 42:53

– enten det er med makrokeder eller generativ grammatikker.

42:53 –> 42:58

Man arbejder med de skemager, man spiller på eller bruger.

42:58 –> 43:04

Det vil sige, at man fremhæver og tydeliggør de skemager, som ligger i de tekster –

43:04 –> 43:10

– vi ellers bruger, uden at lægge videre mærke til dem.

43:10 –> 43:15

På den måde kan det have en vis frigørende effekt.

43:15 –> 43:19

Det kan pege på noget af den spændetrøje, som sproget også er –

43:19 –> 43:25

– og løsne lidt op for den.

43:25 –> 43:28

Det viser sig, at man kan tømme en tekst for ganske meget betydning.

43:28 –> 43:33

Man kan råde fuldstændig rundt i dens umiddelbare, tydelige, semantiske lag –

43:33 –> 43:41

– og så tydeliggøre en anden slags betydning.

43:41 –> 43:44

Den betydning, der er i selve tekstens struktur og som tekst i dens sproglige stil.

43:44 –> 43:52

De fleste af de træk bliver jo bibeholdt.

43:52 –> 43:56

Nu vil jeg slutte det første afsnit af.

43:56 –> 44:01

Jeg håber, det var lidt interessant og sjovt at høre om de teksteksperimenter –

44:01 –> 44:09

– både dem, der går i den statistiske retning og dem, der går i den regel- eller formbaserede retning.

44:09 –> 44:16

Du lytter til “Om det hele og resten”.

44:16 –> 44:20

En podcast, der handler om det hele og resten.

44:20 –> 44:28

Som navnet angiver.

44:28 –> 44:33

Du lytter til podcasten “Om det hele og resten” af Thomas Tøfner.

44:33 –> 44:38

Denne gang en soloepisode, selvom jeg er med.

44:38 –> 44:42

En soloepisode med titlen “De store sprogmodeller hallucinerer”.

44:42 –> 44:46

Anden del “Tyringtesten og Elisa-effekten”.

44:46 –> 44:50

I dette afsnit skal vi tale om den tilbøjelighed, vi har til at tilægge intentioner og mening til sproglige udtryk –

44:50 –> 44:58

– selvom de resultater er algoritmer og kommer ud af en maskine.

44:58 –> 45:03

Der er to centrale nøglebegreber her.

45:03 –> 45:07

Tyringtesten og Elisa-effekten.

45:07 –> 45:11

Tyringtesten er, som sikkert bekendt, navngivet efter Alan Turing.

45:11 –> 45:17

Den geniale matematiker, som var ophavsmand til meget af grundlaget for moderne computer- og computervidenskab –

45:17 –> 45:24

– og som desværre begik selvmord, formentlig presset af omverdens manglende accept af hans homosexualitet.

45:24 –> 45:32

Men det er en anden historie, som man kan se f.eks. i filmen “The Imitation Game”.

45:32 –> 45:39

I 1950 udgav Turing sin berømte artikel “Computing Machinery and Intelligence”.

45:39 –> 45:47

Og det var i den, at han introducerede, hvad der er blevet kendt som “Tyringtesten”.

45:47 –> 45:52

Jeg tror, at i omkring 50 år kan man programmere computer med en storagekapacitet på omkring 10^9 –

45:52 –> 45:59

– for at lave dem spille “The Imitation Game” så godt, at en almindelig computergenerator ikke kan.

45:59 –> 46:04

Det er om ca. 50 år, at det vil være muligt at programmere computer med en lagerkapacitet på omkring 10^9 –

46:04 –> 46:11

– så de vil spille “Imitation Game” så godt, at en gennemsnitlig forhørsleder –

46:11 –> 46:16

– højst har 70% chance for at identificere rigtigt efter fem minutters forhør.

46:16 –> 46:23

Det oprindelige spørgsmål, kan maskiner tænke, mener jeg er for meningsløst til, at det fortjener at blive diskuteret.

46:23 –> 46:31

Ikke desto mindre, mener jeg, at i slutningen af århundredet vil brugen af ord og den generelle opfattelse –

46:31 –> 46:38

– have ændret sig så meget, at man vil kunne tale om maskiner, der tænker uden at forvente at blive modsagt.

46:38 –> 46:46

Artiklens spørgsmål er, hvornår man skal sige, at en computer er intelligent.

46:46 –> 46:53

Tyring er interesseret i at operationalisere det spørgsmål, og han gør det på en måde, der er indsigtsfuld –

46:53 –> 47:00

– men også lidt utilfredsstillende.

47:00 –> 47:03

Han gør det nemlig til et spørgsmål om mennesker, der sidder foran en terminal og kommunikerer via tastatur og skærm eller printer –

47:03 –> 47:10

– er i stand til at afgøre, om det, der er i den anden ende, er et menneske eller en maskine.

47:10 –> 47:16

Tyring-testen er altså en test, der afprøver, om computeren eller rettere programmet –

47:16 –> 47:22

– kan nare mennesker eller ej ved at illudere at være et menneske.

47:22 –> 47:28

Spørgsmålet om, hvornår en computer er intelligent, forvandles dermed til –

47:28 –> 47:33

– hvornår kan en computer danne illusionen om intelligens?

47:33 –> 47:38

Alt efter temperament kan man synes, at det er genialt, fordi begreberne bliver operationaliserbar –

47:38 –> 47:44

– eller flat, fordi man på den måde går helt udenom det spørgsmål, man startede med at stele.

47:44 –> 47:50

Man bliver ikke en tødel klogere på, hvad intelligens er –

47:50 –> 47:54

– ved at sige, at intelligens er det, vi vurderer som intelligens.

47:54 –> 48:00

Den originale artikel er sjov at læse, ikke mindst fordi den overvejer eksempler på –

48:00 –> 48:06

– hvad der kan være unikt menneskeligt i en sådan situation.

48:06 –> 48:10

Er det at være god til at spille skak? Er det at være god til at skrive poesi?

48:10 –> 48:16

Der er ikke tvivl om, at Tyring i den grad var forud for sin tid.

48:16 –> 48:21

Computeren i hans samtid var langt fra at kunne gøre noget, der bare lignede –

48:21 –> 48:25

– hvad enhver mobiltelefon i dag gør, mens den gør noget andet.

48:25 –> 48:30

Nu med chatbot-revolutionen virker Tyringtesten og Tyrings artikel på en gang profetisk og banalt.

48:30 –> 48:38

Det bliver ved med at være et interessant spørgsmål, hvordan vi afgør –

48:38 –> 48:42

– om vi chatter med et menneske eller en bot.

48:42 –> 48:46

I realiteten er det yderst komplekst.

48:46 –> 48:49

Nogle gange afslører vi chatbotten, fordi den er dum.

48:49 –> 48:52

Nogle gange, fordi den er for smart.

48:52 –> 48:55

Nogle gange er den for langsom. Andre gange for hurtig.

48:55 –> 48:59

Nogle gange forstår den for lidt. Andre gange ved den for meget.

48:59 –> 49:03

Og igennem det hele er vores yderst dynamiske, kontekstuelle følelsomhed på spil.

49:03 –> 49:10

Men det er svært at trække skarpe grænser, for også mennesker er som bekendt –

49:10 –> 49:15

– og markeret på den, upassende eller ikke tunet ind på situationen.

49:15 –> 49:21

Spørgsmålene er midt i et kompleks af psykologiske, sociologiske og linguistiske tematikker.

49:21 –> 49:29

Som vi kan lære af pragmatisk tekstteori, så forskellige steder som hos Jürgen Habermas, –

49:29 –> 49:36

– Ole Tobeby, Peter Sinkernakket, går vi ikke til sproglige udsavn forventningsløse fra et nulpunkt.

49:36 –> 49:43

Tværtimod regner vi med, at de sproglige udsavn vi hører eller læser er meningsfyldte, –

49:43 –> 49:48

– at de har en værdi af en slags, at de er informative, at de er sanfærdige osv.

49:48 –> 49:54

Det er en uudtal kontrakt, som i al almindelighed er i funktion –

49:54 –> 49:59

– indtil der eventuelt kommer grus i maskineriet, og vi bliver usikre på, om kontrakten er overholdt.

49:59 –> 50:07

Den her kommunikativ rettighed mod sprog, den er dyb og rodfæstet i os.

50:07 –> 50:14

Når vi først har automatiseret læsning, er det vanskelig at slå fra igen.

50:14 –> 50:20

Når vi fæster blikket på nogle ord, så læser vi dem nærmest lige så umiddelbart som når vi hører en lyd.

50:20 –> 50:26

Det er ikke noget, vi vælger at gøre eller ej.

50:26 –> 50:30

Så når der dukker ord op på en skærm, eller de står på et stykke papir, –

50:30 –> 50:34

– eller kommer ud af højtaleren, som mine ord gør lige nu, så bliver de hørt som mening.

50:34 –> 50:42

Det er klart, at der er en kompleks og sammensat proces i gang, og der er alle mulige fortolkningslag involveret, –

50:42 –> 50:49

– men oplevelsen er, at ordene går lige ind.

50:49 –> 50:53

Under normale omstændigheder opføres de simpelthen som betydning i os.

50:53 –> 51:00

Det er for mig at se en underliggende eller grundlæggende forklaring på ELISA-effekten.

51:00 –> 51:08

Hvad handler den så om?

51:08 –> 51:11

Forestil dig, at du er tilbage i 1960’erne.

51:11 –> 51:16

Du er inviteret ind på et yderst moderne databehandlingslaboratorium af en lidt provokerende professor, Joseph Weissenbaum.

51:16 –> 51:28

Du er inviteret ind for at deltage i et eksperiment.

51:28 –> 51:32

På forhånd har du kun fået at vide, at du skal føre en dialog med et avanceret computersystem.

51:32 –> 51:38

Weissenbaum har udviklet en digital psykolog, og det er den du skal tale med.

51:38 –> 51:44

Du kommer ind i rummet.

51:44 –> 51:46

Der er en konstant lav summe fra blæser og noget, der lyder som små motorer, der hviler.

51:46 –> 51:52

Langs væggene står skabs store metalkabinetter med spolebånd og små blinkende lamper.

51:52 –> 51:59

Næsten midt i rummet står et bord med en grønt lysende skærm, mindreindet af fireark.

51:59 –> 52:05

Og du bliver bedt om at tage plads foran den ved tastaturet, som er stort og klikker højlydt, da professoren starter programmet.

52:05 –> 52:15

Lysende grønt dukker følgende op på skærmen.

52:15 –> 52:19

“Hello, I am Elisa. I’ll be your therapist today.”

52:19 –> 52:26

“Bare skriv, hvad du vil sige til en menneskelig psykolog”, siger professoren og træder et skridt tilbage for at give dig lidt plads.

52:26 –> 52:33

Han står nu stadig med blikket rettet stift mod skærmen.

52:33 –> 52:39

Nu kommer det interessante.

52:39 –> 52:42

Mange mennesker, der interagerede med Elisa, blev overraskende involveret i samtalerne med hende.

52:42 –> 52:48

De begyndte at tilægge hende en form for intention og følelse og forståelse.

52:48 –> 52:54

Selvom Elisa blot fulgte en simpel tekstbaseret algoritme, blev folk trukket ind i samtaler, hvor de åbnede op for deres følelser og tanker.

52:54 –> 53:04

En af grunde til, at Elisa er så godt et eksempel på det fænomen, er, at programmet er uhyresimpelt.

53:04 –> 53:13

Det er ikke sporavanceret. Hvis man skriver det ud, fylder det måske en femten af fire sider.

53:13 –> 53:24

Der er ikke noget, der ligner et neuralt netværk eller avanceret statistisk databehandling her.

53:24 –> 53:31

Det er et simpelt, regelbaseret program.

53:31 –> 53:38

Alligevel blev folk trukket ind i de her samtaler, og mange oplevede at blive forstået og hørt.

53:38 –> 53:52

Dette fænomen kaldes “Elisa-effekten”, og det siger noget dybt fascinerende om vores menneskelige natur.

53:52 –> 53:59

Vi har en tendens til at tilskrive intention og følelse til sproglige udtryk, selv når de kommer fra maskiner.

53:59 –> 54:06

Det er som om vores hjerner er indstillet til at søge mening og forbindelse, selv i det tilsyneladende upersonlige.

54:06 –> 54:15

Vi er tilbøjelige til at præcisere vores egne tanker og følelser på andre, selv når andre blot er et computerprogram.

54:15 –> 54:25

Den tendens, denne “Elisa-effekt”, har dybe implikationer, ikke kun for vores interaktion med teknologi,

54:25 –> 54:33

men også for den måde, vi forstår os selv på.

54:33 –> 54:38

En pointe, vi kan uddrage, er, at vi er næme at nara, og det er jo rigtigt nok,

54:38 –> 54:44

men det er ikke den mest interessante pointe.

54:44 –> 54:49

Mere interessant er det at bruge “Elisa-effekten” som et prisme, vi kigger på al kommunikation igennem.

54:49 –> 55:02

Set på den måde bliver vi jo altid naraet, eller aldrig naraet,

55:02 –> 55:08

hvis vi dermed mener, at vi får mening og intention ud af sproglige udtryk,

55:08 –> 55:13

blot fordi de er sproglige udtryk.

55:13 –> 55:16

Det er sådan, det er. Mening er et modtager-fænomen.

55:16 –> 55:21

Det har du godt nok sagt mange gange.

55:21 –> 55:25

Historien, som Weissenbaum fortalte, og som stadig fortælles,

55:25 –> 55:29

er, at mange mennesker blev umådeligt optaget af deres kommunikation med Elisa.

55:29 –> 55:35

F.eks. er det en ofte gentaget historie, at Weissenbaums sekretær bad ham om at forlade rummet,

55:35 –> 55:41

så hun kunne føre en intim samtale i fred.

55:41 –> 55:45

Jeg har ikke noget som helst at hatte i,

55:45 –> 55:48

men jeg har på fornemmelsen, at Weissenbaum har strammet lidt op på historien.

55:48 –> 55:53

Jeg trivler på, at modtagelsen af Elisa gav sig at entydige et billede.

55:53 –> 55:59

På den anden side er det givetvis rigtigt og fascinerende,

55:59 –> 56:02

at der ikke skal mere til end lidt kode,

56:02 –> 56:06

før vi, mange af os i hvert fald,

56:06 –> 56:09

tilægger algoritmen langt mere forståelse, end den har.

56:09 –> 56:12

Og den har sådan set overhovedet ingen forståelse.

56:12 –> 56:17

Her er et eksempel på en dialog, som Weissenbaum publicerede.

56:17 –> 56:22

Den første replik er menneskets.

56:22 –> 56:25

I det her tilfælde en kvinde.

56:25 –> 56:28

Og nu kan jeg ikke lade være med at vende tingene lidt på hovedet.

56:28 –> 56:31

Så, øh…

56:31 –> 56:32

“Kristel! Vil du spille kvinde?”

56:32 –> 56:35

“Det kan du tro.”

56:35 –> 56:38

“Men af ens.”

56:38 –> 56:39

“På hvilken måde?”

56:39 –> 56:41

“De irriterer os altid med et eller andet.”

56:41 –> 56:44

“Kan du komme med et specifikt eksempel?”

56:44 –> 56:47

“Altså, min kæreste tvang mig til at komme her.”

56:47 –> 56:50

“Din kæreste tvang dig til at komme her?”

56:50 –> 56:53

“Han siger, jeg er deprimeret det meste af tiden.”

56:53 –> 56:56

“Jeg er ked af at høre, at du er deprimeret.”

56:56 –> 57:00

“Det er sandt. Jeg er ulykkelig.”

57:00 –> 57:03

“Tror du, at det at komme her vil hjælpe dig med ikke at være ulykkelig?”

57:03 –> 57:08

“Jeg har brug for hjælp. Det er helt sikkert.”

57:08 –> 57:11

“Hvad ville det betyde for dig, hvis du fik hjælp?”

57:11 –> 57:15

“Måske kunne jeg lære at komme overens med min mor.”

57:15 –> 57:18

“Fortæl mig mere om din familie.”

57:19 –> 57:22

“Min mor passer på mig.”

57:22 –> 57:24

“Hvem mere i din familie passer på dig?”

57:24 –> 57:27

“Min far.”

57:27 –> 57:29

“Din far?”

57:29 –> 57:30

“Du ligner min far på nogle måder.”

57:30 –> 57:32

“Hvilken lighed ser du?”

57:32 –> 57:35

“Du er ikke særlig aggressiv.”

57:35 –> 57:37

“Men jeg tror ikke, du ønsker, at jeg skal lægge mærke til det.”

57:37 –> 57:42

“Hvad får dig til at tro, at jeg ikke er særlig aggressiv?”

57:42 –> 57:45

“Du argumenterer ikke med mig.”

57:45 –> 57:48

“Hvorfor tror du ikke, at jeg argumenterer med dig?”

57:48 –> 57:51

“Du er bange for mig.”

57:51 –> 57:53

“Behager det dig at tro, at jeg er bange for dig?”

57:53 –> 57:56

“Min far er bange for alle.”

57:56 –> 57:58

“Hvad andet falder dig ind, når du tænker på din far?”

57:58 –> 58:02

“Bøller.”

58:02 –> 58:05

Og så videre.

58:05 –> 58:08

Og hvad skal man sige om sådan en dialog?

58:08 –> 58:12

Overfladsk set virker det, som om, at Elisa-botten faktisk indgår på en meningsfyldt måde i denne dialog.

58:12 –> 58:22

Når kvinden skriver, at hun har brug for hjælp, så siger Elisa, at hun vil have hjælp.

58:22 –> 58:31

Og når kvinden siger, at hun kunne lære at komme overens med min mor, så siger Elisa, at hun vil fortælle mere om sin familie.

58:31 –> 58:40

Det virker, som om, at Elisa forstår og egentlig er i gang med noget, der er meget genkendeligt som terapeutisk arbejde.

58:40 –> 58:53

Det hænger sammen med noget, jeg var inde på i forbindelse med mine egne teksteeksperimenter.

58:53 –> 58:58

Det her med, at genkendelige genrer fungerer bedst.

58:58 –> 59:03

Hvorfor fungerer de bedst i de her sammenhæng?

59:03 –> 59:06

Det er, fordi genren i sig selv gør en stor del af arbejdet.

59:06 –> 59:11

Der er en genkendelig og forståelig ramme her, hvor man ikke har alle mulige diffuse forventninger til samtalepartnerens replikker.

59:11 –> 59:21

Man forstår dem allerede på forhånd, som i det her tilfælde, som noget, der indgår i sådan en terapeutisk genre.

59:21 –> 59:30

Stadigvæk kan man synes, at det virker ret imponerende, at man tilbage i 1960’erne var i stand til at lave sådan en chatbot,

59:30 –> 59:38

der i den grad zoomer ind på, hvad klienten taler om.

59:38 –> 59:43

Det, der er det interessante ved Elisa, det er, at mange mennesker, der interagerede med Elisa,

59:43 –> 59:50

blev overraskende involveret i samtaler med hende.

59:50 –> 59:54

De begyndte at tilægge hende en form for intention og følelse.

59:54 –> 01:00:00

Nu siger jeg for eksempel hende, hvilket selvfølgelig er absurd.

01:00:00 –> 01:00:05

Det var i høj grad det, som Joseph Weissenbaum, altså ophavsmanden til Elisa-programmet,

01:00:05 –> 01:00:12

det var i høj grad hans pointe med det, at vise, hvor tilbøjelige vi er til at tilægge intentioner

01:00:12 –> 01:00:21

og meningsdybde til de ord, der dukker frem på skærmen.

01:00:21 –> 01:00:29

Der er en stor kompleksitet her, også i analysen af, hvad der egentlig foregår.

01:00:29 –> 01:00:38

Vi siger for eksempel, at computeren lige skal tænke over det, at den bryder sammen,

01:00:38 –> 01:00:43

at den ikke kan lide, når vi gør sådan og sådan,

01:00:43 –> 01:00:46

at den bliver forvirret, hvis vi gør dette eller hent.

01:00:46 –> 01:00:49

Men det er et åbent spørgsmål om, den slags udtryk egentlig er antropomorficeringer af maskinen.

01:00:49 –> 01:00:57

Vi siger jo også, at tiden går. Vi siger, at et bord har ben.

01:00:57 –> 01:01:03

At der skabes betydning og mening i dialogen med Elisa er jo heller ikke så mærkeligt,

01:01:03 –> 01:01:08

når man tænker på, at der skabes betydning og mening, blot man sidder alene og skriver noget ned.

01:01:08 –> 01:01:14

Mening er, som jeg har tænkt mig at sige til hudløshed, et modtagerfænomen.

01:01:14 –> 01:01:20

Og sprog, det betyder. Det behøver overhovedet ingen intention.

01:01:20 –> 01:01:26

Elisa-programmet eller chatbotten har så lagt navn til Elisa-effekten.

01:01:26 –> 01:01:40

Og det er simpelthen det fænomen, at vi er meget tilbøjelige til at investere intention og mening og betydning

01:01:40 –> 01:01:49

og følelser hos sådan en samtalepartner, selvom den er simpel og algoritmisk produceret.

01:01:49 –> 01:01:59

Og det er jo det, der er det vildeste ved Elisa, og det, der gør det til så godt et eksempel.

01:01:59 –> 01:02:05

Elisa-programmet er vanvittigt simpelt. Der er ikke noget som helst avanceret ved det.

01:02:05 –> 01:02:11

Der er ikke nogen stor statistik. Der er ikke en maskinlæringsmodel bagved, som har tykket sig igennem internettet.

01:02:11 –> 01:02:19

Der er ikke noget, der bare ligner. Elisa-programmet fylder nogle få sider, hvis det bliver skrevet ud på papir.

01:02:19 –> 01:02:29

Det fungerer på sådan en helt simpel måde, at man kan sige i stort set kigger det efter nogle nøglerord.

01:02:29 –> 01:02:36

Og hvis de her nøglerord optræder, så har det nogle fraser parat, det kan bruge.

01:02:36 –> 01:02:42

Et eksempel kunne være det her med, at klienten her siger, “måske kunne jeg lære at komme overens med min mor”.

01:02:42 –> 01:02:49

Og Elisa forstår ikke noget som helst af den sætning, er ikke i stand til at analysere den grammatisk eller noget som helst.

01:02:49 –> 01:02:56

Den kan genkende nøglerordet “mor”. Og når nøglerordet “mor” optræder i inputtet, så spytter Elisa et svar ud.

01:02:56 –> 01:03:05

“Fortæl mig mere om din familie”.

01:03:05 –> 01:03:08

Elisa har også et par andre smarte tricks op i sit digitale ærme.

01:03:08 –> 01:03:15

Udover at kigge efter nøglerord og have bestemte fraser parat, så gør Elisa også det,

01:03:15 –> 01:03:21

at den genkender visse tydelige sætningsstrukturer, som den så kan vende om, så den f.eks. kan lave et udsavn om til et spørgsmål.

01:03:21 –> 01:03:32

Den slags helt simple ting, som i øvrigt meget nemt går galt.

01:03:32 –> 01:03:36

Altså man skal ikke være særlig sprogligt kreativ, før Elisa ikke kan følge med.

01:03:36 –> 01:03:40

Men på den anden side, hvis man som udgangspunkt tager det alvorligt og udtrykker sig almindeligt,

01:03:40 –> 01:03:46

jamen så fungerer det overraskende godt.

01:03:46 –> 01:03:49

Endelig har Elisa også det trick, at hvis den ikke ved, hvad den skal sige,

01:03:49 –> 01:03:54

jamen så har den et antal fraser på lager, som passer til de fleste lejligheder.

01:03:54 –> 01:04:01

Elisa-effekten peger på noget fascinerende ved vores natur.

01:04:01 –> 01:04:07

Altså den her tendens, vi har til at tilskrive intentioner og følelser til sproglige udtryk,

01:04:07 –> 01:04:13

lige meget hvor de kommer fra.

01:04:13 –> 01:04:15

Det er jo ikke så mærkeligt, kan man sige, det er det, sprog er beregnet til,

01:04:15 –> 01:04:19

til at kommunikere.

01:04:19 –> 01:04:21

Og når vi modtager sprog, aflæser det på den ene eller den anden måde,

01:04:21 –> 01:04:26

jamen så gør vi det med en forventning om intention bagved.

01:04:26 –> 01:04:32

Og vi bruger mange kognitive kræfter på at regne ud og indstille os på, hvor kommer den anden fra.

01:04:32 –> 01:04:41

Og den anden kan altså også godt bare være ord på en skærm eller på et stykke papir.

01:04:41 –> 01:04:48

Så vi kan jo kalde det projektion, altså vi har den her tilbøjelighed til at prøvisere

01:04:48 –> 01:04:53

vores tanker og følelser på andre.

01:04:53 –> 01:04:57

Det er så at sige vores naturlige modus, vores naturlige forventning til sproglige udtryk.

01:04:57 –> 01:05:05

Jeg synes, det udgør interessant.

01:05:05 –> 01:05:07

Og det lejseeffekten kommer til at repræsentere en række ret dybe ting om det at være menneske

01:05:07 –> 01:05:13

og om den måde, vi forholder os til hinanden på.

01:05:13 –> 01:05:16

Jeg tror tidligere, jeg nævnte kort det her fænomen med, at når man først har lært at læse,

01:05:16 –> 01:05:22

så kan man ikke lade være med at læse.

01:05:22 –> 01:05:24

Altså hvis man fokuserer på en sætning, der er skrevet ud,

01:05:24 –> 01:05:29

jamen så læser man den.

01:05:29 –> 01:05:31

Hvis man kigger på et skilt, hvor der står “stop”,

01:05:31 –> 01:05:34

så læser man “stop”, når man først har lært at læse, og man først har automatiseret den proces,

01:05:34 –> 01:05:40

så er det ikke sådan, at man kan slå det fra eller til.

01:05:40 –> 01:05:45

Det er i hvert fald meget vanskeligt.

01:05:45 –> 01:05:46

Man læser simpelthen det, der står.

01:05:46 –> 01:05:49

Det giver simpelthen mening.

01:05:49 –> 01:05:51

Det er en meget automatisk og umiddelbar proces.

01:05:51 –> 01:05:56

Og det er jo igen interessant, fordi tekst på den måde simpelthen mødes som kommunikation.

01:05:56 –> 01:06:03

Det er næsten ligegyldigt, hvad omstændighederne er.

01:06:03 –> 01:06:07

Altså en pointe, vi kan uddrage, det er jo, at vi er nemmere at nage.

01:06:07 –> 01:06:11

Og det er jo sådan set rigtigt nok. Vi er meget nemmere at nage.

01:06:11 –> 01:06:15

Men det er ikke den mest interessante pointe.

01:06:15 –> 01:06:18

Jeg synes, det er mere interessant at fokusere på, hvad det her fortæller om os,

01:06:18 –> 01:06:24

og hvad det fortæller om vores forhold til sproglige udtryk.

01:06:24 –> 01:06:28

Og det fortæller jo simpelthen det simple, at det sproglige udtryk er nok.

01:06:28 –> 01:06:34

Det er nok til, at vi får mening og intention ud af det.

01:06:34 –> 01:06:38

Og det er noget, vi gør som modtagerer.

01:06:38 –> 01:06:40

Så det er altså igen det her med, at mening er et modtager-fænomen.

01:06:40 –> 01:06:44

Og det synes jeg er uhyre vigtigt.

01:06:44 –> 01:06:48

Og jeg synes, Elisa demonstrerer det fænomen uhyre tydeligt.

01:06:48 –> 01:06:53

Ophavsmanden Joseph Weissenbaum arbejdede som sagt med de her ting netop for at pege på den karakterer-illusion,

01:06:53 –> 01:07:00

der meget hurtigt kommer til at ligge i sådan noget som chatbotter.

01:07:00 –> 01:07:03

Og den illusion, den viljehed til at producere mere mening end der er,

01:07:03 –> 01:07:10

den kan man sige følger os overalt.

01:07:10 –> 01:07:14

Den kan vi genfinde en masse steder.

01:07:14 –> 01:07:17

Altså man kunne tænke på astrologi, spordomskunst, alle mulige situationer, hvor vi efterspørger råd og vejledning og forståelse og mening.

01:07:17 –> 01:07:28

Og måske nogen af os søger det i forskellige metoder, forskellige ideer om,

01:07:28 –> 01:07:36

at der er mennesker, der har særlig adgang til viden eller i særlig grad har adgang til forståelse osv.

01:07:36 –> 01:07:42

Og i alle de fænomener der genfinder vi Eliza-effekten.

01:07:42 –> 01:07:47

Eller jeg vil egentlig hellere bruge et mere bredt udtryk og navngive det menings-effekten.

01:07:47 –> 01:07:54

Og ordet menings-effekt skal så simpelthen dække over alle de måder, hvor vi i kraft af vores menneskelige egenskaber

01:07:54 –> 01:08:02

producere mening, som ikke er tilstede på forhånd eller uafhængigt af os.

01:08:02 –> 01:08:08

Menings-effekten er poetisk i den forstand, at den er skabende.

01:08:08 –> 01:08:15

Ligesom den oprindelige kraske råd af poesi, poesis.

01:08:15 –> 01:08:20

Vi skaber, vil jeg påstå, altid mere mening end der er.

01:08:20 –> 01:08:25

Det er det vi gør.

01:08:25 –> 01:08:28

Vi er det poetiske dyr.

01:08:28 –> 01:08:32

Nu har jeg brug for et minut med Kalles musik.

01:08:32 –> 01:08:36

Nu har jeg brug for et minut med Kalles musik.

01:08:41 –> 01:08:43

Sådan en kan man selvfølgelig finde mange steder,

01:10:31 –> 01:10:33

men jeg synes ikke, at der er så mange forklaringer,

01:10:33 –> 01:10:35

som forfat i det centrale på en ikke teknisk måde.

01:10:35 –> 01:10:37

Så her er mit bud.

01:10:39 –> 01:10:41

Lyt også til professor Anders Søgaard i forrig episode,

01:10:43 –> 01:10:45

som leverede nogle meget fine formuleringer.

01:10:45 –> 01:10:47

En måde at tænke på sprogmodeller og sprogteknologi,

01:10:49 –> 01:10:51

Det hele tager af, at vi lærer funktioner.

01:10:51 –> 01:10:53

Matematiske funktioner, for det er lidt som

01:10:53 –> 01:10:55

i børneligskolen, sådan nogle fx,

01:10:55 –> 01:10:57

lige med x+2-agtigt.

01:10:57 –> 01:10:59

Vi lærer bare funktioner fra nogle

01:11:01 –> 01:11:03

talrepræsentationer af tekst,

01:11:03 –> 01:11:05

til nogle talrepræsentationer af tekst.

01:11:05 –> 01:11:07

Når jeg taler med folk, der gerne vil forstå noget om

01:11:09 –> 01:11:11

chat-GPT, men som ikke har tekniske forudsætninger,

01:11:11 –> 01:11:13

så bruger jeg gerne en gammel mobiltelefon som udgangspunkt.

01:11:15 –> 01:11:17

selv en klassisk Nokia-model kan hjælpe med at skrive sms’er,

01:11:19 –> 01:11:21

ved at gætte på, hvad de næste ord kan være.

01:11:23 –> 01:11:25

Hvordan gør den det?

01:11:27 –> 01:11:29

Den simpleste metode er at have en liste over ord,

01:11:29 –> 01:11:31

som ud fra hvert ord har noteret,

01:11:33 –> 01:11:35

hvad de fem eller ti mest sandsynlige følgende ord er.

01:11:35 –> 01:11:37

En sådan liste er nem at lave ved at starte med et større tekst-korpus,

01:11:39 –> 01:11:41

og så løbe det igennem.

01:11:43 –> 01:11:45

Så nu har vi en metafor for chat-GPT på niveau 1.

01:11:45 –> 01:11:47

Chat-GPT er sådan en klassisk Nokia-telefon på stævider.

01:11:49 –> 01:11:51

Jeg har tidligere talt om Markov-kædemodeller,

01:11:55 –> 01:12:09

Jeg har tidligere talt om Markov-kædemodeller,

01:12:09 –> 01:12:11

og det er det, der er tale om, en ganske simpel en af slagsen.

01:12:11 –> 01:12:13

Selv en sådan Nokia-model kan man bruge til at producere tekst.

01:12:15 –> 01:12:17

Det er bare at begynde med et ord,

01:12:19 –> 01:12:21

og så bliver vi med at vælge et af dens forslag.

01:12:21 –> 01:12:23

En sådan tekst vil få den særlige karakter,

01:12:25 –> 01:12:27

at den ligner dansk sprog ganske meget,

01:12:27 –> 01:12:29

og samtidig er den præget af, at den ikke rigtig handler om noget.

01:12:31 –> 01:12:33

Den taler ved hele tiden at sige det, man plejer at sige,

01:12:35 –> 01:12:37

og på den måde havner man i lange kæder af fraser og fyldord.

01:12:37 –> 01:12:39

Markovkæderne kan, som jeg tidligere var inde på,

01:12:43 –> 01:12:45

udvides til at kigge på et større tekst,

01:12:47 –> 01:12:49

hvindue af gangen.

01:12:49 –> 01:12:51

Hvis nu det tekstkorpus, der er udgangspunktet,

01:12:51 –> 01:12:53

var uendeligt stort,

01:12:53 –> 01:12:55

ville det faktisk fungere.

01:12:55 –> 01:12:57

Så kunne man jo spørge efter det næste sandsynlige ord

01:12:57 –> 01:12:59

efter fx de her 100 ord,

01:12:59 –> 01:13:01

og et sted på listen ville vi faktisk have et godt bud.

01:13:01 –> 01:13:03

Men tekstkorpusset er,

01:13:05 –> 01:13:07

selvom det er stort, slet ikke stort nok.

01:13:07 –> 01:13:09

Der er brug for en anden måde

01:13:09 –> 01:13:11

at forudse det næste ord på,

01:13:11 –> 01:13:13

en metode, som ikke bare kigger på overfladen

01:13:13 –> 01:13:15

af ordenes kæder, kan man sige,

01:13:15 –> 01:13:17

og som ikke bare uflexibelt er styret

01:13:17 –> 01:13:19

af det foregående ord,

01:13:19 –> 01:13:21

ordpar eller ordtrio.

01:13:21 –> 01:13:23

Markovmetoden giver sammenhæng,

01:13:25 –> 01:13:27

men kun snævert og lokalt.

01:13:27 –> 01:13:29

Hvordan kan vi udnytte

01:13:29 –> 01:13:31

og tage hensyn til konteksten?

01:13:31 –> 01:13:33

Hvis vi nu ville lave en bedre version

01:13:33 –> 01:13:37

af forudsigelsen af det næste ord

01:13:37 –> 01:13:39

i SMS’en,

01:13:39 –> 01:13:41

så kunne en idé være at operere

01:13:41 –> 01:13:43

med forskellige ordlister alt efter konteksten.

01:13:43 –> 01:13:45

Det er måske fx sådan,

01:13:45 –> 01:13:49

at de ydligste ord, der typisk kommer efter

01:13:49 –> 01:13:51

“vaske” er sådan noget som

01:13:51 –> 01:13:53

“op” og “tøj”

01:13:53 –> 01:13:55

og “bil”,

01:13:55 –> 01:13:57

fordi man tit vil

01:13:57 –> 01:13:59

skrive noget med at “vaske op”,

01:13:59 –> 01:14:01

“vaske tøj”, “vaske bil”.

01:14:01 –> 01:14:03

Men hvis vi nu er i en kontekst,

01:14:03 –> 01:14:05

der handler om lyssky pengeoverførsler,

01:14:05 –> 01:14:07

så vil et godt bud være

01:14:07 –> 01:14:09

noget med at “vaske penge hvide”.

01:14:09 –> 01:14:11

Så nu kunne vi forestille os,

01:14:11 –> 01:14:15

at du oprettede et stort antal særlige

01:14:15 –> 01:14:17

lister med hyppige næsteord

01:14:17 –> 01:14:19

i forskellige kontekster.

01:14:19 –> 01:14:21

Så det eneste, vi mangler er en måde at afgøre,

01:14:21 –> 01:14:23

hvilken kontekst vi er i.

01:14:23 –> 01:14:25

Det kunne vi løse ved at lave flere lister,

01:14:25 –> 01:14:27

sådan at vi havde en liste over ord,

01:14:27 –> 01:14:29

der, når de optrådte, parrede i retning af

01:14:29 –> 01:14:31

et “pengetema”

01:14:31 –> 01:14:33

og en liste med ord, der parrede i retning af

01:14:33 –> 01:14:35

“tøjvask” eller “bilvask”

01:14:35 –> 01:14:37

osv.

01:14:37 –> 01:14:39

Det ville bestemt fungere til en vis grad,

01:14:39 –> 01:14:41

men det er klart, at det ville være noget af et arbejde

01:14:41 –> 01:14:43

at lave alle de lister.

01:14:43 –> 01:14:45

Og nu vender vi så tilbage til

01:14:45 –> 01:14:47

ChatGBT, for

01:14:47 –> 01:14:49

det er ikke helt forkert som en metafor,

01:14:49 –> 01:14:51

at det smarte ved teknologien i de store

01:14:51 –> 01:14:53

sprogmodeller er, at de selv

01:14:53 –> 01:14:55

kan lave alle de lister.

01:14:55 –> 01:14:57

Nu er liste-

01:14:57 –> 01:14:59

ideen lidt for grov.

01:14:59 –> 01:15:01

Det er bedre at forestille os alle

01:15:01 –> 01:15:03

ordene placeret

01:15:03 –> 01:15:05

svævende i rummet.

01:15:05 –> 01:15:07

Ord, der deler kontekst og har

01:15:07 –> 01:15:09

rigtig meget med hinanden at gøre, vil danne

01:15:09 –> 01:15:11

klønger. Et ord som

01:15:11 –> 01:15:13

“vaske” vil have en placering imellem

01:15:13 –> 01:15:15

de ord, der har at gøre med “bilvask”,

01:15:15 –> 01:15:17

dem, der har at gøre med “tøjvask”

01:15:17 –> 01:15:19

osv.

01:15:19 –> 01:15:21

En placering, som præcist svarer

01:15:21 –> 01:15:23

til den fordeling, der er i de data

01:15:23 –> 01:15:25

modellen er trænet på.

01:15:25 –> 01:15:27

Når modellen så skal finde

01:15:27 –> 01:15:29

et sandsynligt næste ord, vil den

01:15:29 –> 01:15:31

være styret på rette vej af det sted

01:15:31 –> 01:15:33

den er i det store sproglige

01:15:33 –> 01:15:35

rum.

01:15:35 –> 01:15:37

Det var en metaforisk forståelse

01:15:37 –> 01:15:39

på andet niveau.

01:15:39 –> 01:15:41

[Musik]

01:15:41 –> 01:15:51

Så bliver vi lidt mere tekniske

01:15:51 –> 01:15:53

og spørger, hvordan laver man

01:15:53 –> 01:15:55

sådan et sprogligt rum?

01:15:55 –> 01:15:57

Først må vi have et neuralt

01:15:57 –> 01:15:59

netværk.

01:15:59 –> 01:16:01

Det er vanskeligt at gå i detaljer

01:16:01 –> 01:16:03

med mundtligt, men det er

01:16:03 –> 01:16:05

egentlig ikke svært at forstå princippet.

01:16:05 –> 01:16:07

Det neurale kommer af,

01:16:07 –> 01:16:09

at man på en simpel måde har

01:16:09 –> 01:16:11

lavet sig at inspirere hjernens neuroner.

01:16:11 –> 01:16:13

Her er et forsøg

01:16:13 –> 01:16:15

på en simpel forklaring.

01:16:15 –> 01:16:17

Hver neuron i det neurale

01:16:17 –> 01:16:19

netværk modtager en talværdi

01:16:19 –> 01:16:21

og sender en talværdi videre.

01:16:21 –> 01:16:23

Der kan så justeres på,

01:16:23 –> 01:16:25

hvor høj værdien skal være, før der

01:16:25 –> 01:16:27

kommer noget videre, og på, hvor meget

01:16:27 –> 01:16:29

der kommer videre.

01:16:29 –> 01:16:31

Vi kan forestille os

01:16:31 –> 01:16:33

et kolossalt system af vandrør,

01:16:33 –> 01:16:35

med flere fittings, hæner

01:16:35 –> 01:16:37

og koblinger, end det lokale byggemarked

01:16:37 –> 01:16:39

kan byde på.

01:16:39 –> 01:16:41

Vi sender vand ind i systemet, og det løber rundt

01:16:41 –> 01:16:43

på alle mulige måder,

01:16:43 –> 01:16:45

indtil det kommer ud igen af afløbet.

01:16:45 –> 01:16:47

Nu kan man vise,

01:16:47 –> 01:16:49

at hvis bare man justerer

01:16:49 –> 01:16:51

alle hænerne på den rigtige måde,

01:16:51 –> 01:16:53

så kan man få lige det forhold, man gerne vil have

01:16:53 –> 01:16:55

mellem indløb og afløb.

01:16:55 –> 01:16:57

Det synes jeg også er nemt

01:16:57 –> 01:16:59

at forestille sig.

01:16:59 –> 01:17:01

Nu stiger

01:17:01 –> 01:17:03

abstraktionsniveauet,

01:17:03 –> 01:17:05

men vi holder fast i strukturen.

01:17:05 –> 01:17:07

De store sprogmodellers

01:17:07 –> 01:17:09

transformerarkitektur

01:17:09 –> 01:17:11

tager ikke vand ind,

01:17:11 –> 01:17:13

men strømme af tekst, der er segmenteret

01:17:13 –> 01:17:15

i mindre dele.

01:17:15 –> 01:17:17

Lad os bare holde fast i ord, som enhederne.

01:17:17 –> 01:17:19

Modellen får

01:17:19 –> 01:17:21

et ord ad gangen i rækkefølge,

01:17:21 –> 01:17:23

jeg retter sagt, ord, som er

01:17:23 –> 01:17:25

lavet om til talværdier.

01:17:25 –> 01:17:27

Så gør netværket noget ved de talværdier,

01:17:27 –> 01:17:29

ligesom VVS-netværket

01:17:29 –> 01:17:31

gør noget ved vandet,

01:17:31 –> 01:17:33

og ud kommer nogle andre

01:17:33 –> 01:17:35

talværdier.

01:17:35 –> 01:17:37

Modellen laver altså en eller anden

01:17:37 –> 01:17:39

funktion på input’et.

01:17:39 –> 01:17:41

Til at begynde med, at det tilfældigt

01:17:41 –> 01:17:43

forvægtende i netværket,

01:17:43 –> 01:17:45

det der svarer til vandhægene og ventiler,

01:17:45 –> 01:17:47

er ikke justeret til noget specielt.

01:17:47 –> 01:17:49

Den funktion, vi gerne vil have netværket

01:17:49 –> 01:17:53

til at repræsentere, er en funktion,

01:17:53 –> 01:17:55

der på baggrund af et ord og de

01:17:55 –> 01:17:57

foregående ord, spytter et godt

01:17:57 –> 01:17:59

næste ord ud.

01:17:59 –> 01:18:01

Det smarte er, at

01:18:01 –> 01:18:03

i træningsfasen er det jo kendt,

01:18:03 –> 01:18:05

så vi kan lade modellen forstå,

01:18:05 –> 01:18:07

hvor langt den var fra det korrekte svar.

01:18:07 –> 01:18:09

Det vil sige, hvor langt

01:18:09 –> 01:18:11

væk i det store sprorum den var

01:18:11 –> 01:18:13

fra kildetekstens svar.

01:18:13 –> 01:18:15

Det er det, man kalder en objektiv

01:18:15 –> 01:18:19

tabs-funktion, en såkaldt

01:18:19 –> 01:18:21

loss function.

01:18:21 –> 01:18:23

Nu skal vi bare ind og justere på

01:18:23 –> 01:18:25

alle vandhægene og ventiler,

01:18:25 –> 01:18:27

så tabs-funktionen bliver mindre,

01:18:27 –> 01:18:29

og vi kommer tættere på det, vi gerne vil have,

01:18:29 –> 01:18:31

at netværket gør.

01:18:31 –> 01:18:33

Det vanvittigt smarte er,

01:18:33 –> 01:18:35

at man kan få modellen til selv

01:18:35 –> 01:18:37

at gøre det, og gradvist

01:18:37 –> 01:18:39

trænes netværket til at minimere

01:18:39 –> 01:18:41

afstanden mellem dets output

01:18:41 –> 01:18:43

og det faktiske næste ord

01:18:43 –> 01:18:45

i tekstkorpusset.

01:18:45 –> 01:18:47

Træningen går ud på

01:18:47 –> 01:18:49

at minimere tabet,

01:18:49 –> 01:18:51

kan man sige.

01:18:51 –> 01:18:53

Det sker ved hjælp af den såkaldte

01:18:53 –> 01:18:55

backpropagation-algoritme

01:18:55 –> 01:18:57

og gradient descent.

01:18:57 –> 01:18:59

Backpropagation

01:18:59 –> 01:19:01

er den algoritme, der bruges

01:19:01 –> 01:19:03

til at justere vægtene i det neurale

01:19:03 –> 01:19:05

netværk under træningen.

01:19:05 –> 01:19:07

Den fungerer ved at justere fejlen

01:19:07 –> 01:19:09

baglæns gennem netværket

01:19:09 –> 01:19:11

lag for lag. Det det

01:19:11 –> 01:19:13

“propagerer” betyder.

01:19:13 –> 01:19:15

Ved at følge fejlen baglæns

01:19:15 –> 01:19:17

er det ikke kun outputlaget, der justeres,

01:19:17 –> 01:19:19

men også alle de foregående lag,

01:19:19 –> 01:19:21

der bidro til forudsigelsen.

01:19:21 –> 01:19:23

På den måde minimeres

01:19:23 –> 01:19:25

fejlen i hele modellen.

01:19:25 –> 01:19:27

Gradient descent

01:19:27 –> 01:19:29

er den metode, der på hver trin

01:19:29 –> 01:19:31

bestemmer, hvordan vægtene skal justeres

01:19:31 –> 01:19:33

for at minimere tabet.

01:19:33 –> 01:19:35

Det handler om at

01:19:35 –> 01:19:37

beregne i hvilken retning

01:19:37 –> 01:19:39

vægtene skal justeres.

01:19:39 –> 01:19:41

Visuelt kan man tænke på

01:19:41 –> 01:19:43

tabsfunktionen som et bakket landskab

01:19:43 –> 01:19:45

– gradienten.

01:19:45 –> 01:19:47

Det gælder om at gå ned ad bakke

01:19:47 –> 01:19:49

mod en dal og finde et minimum.

01:19:49 –> 01:19:51

På den måde stiger

01:19:51 –> 01:19:53

man ned ad gradienten.

01:19:53 –> 01:19:55

Ved at kombinere

01:19:55 –> 01:19:57

backpropagation og gradient

01:19:57 –> 01:19:59

descent kan transformermodellen

01:19:59 –> 01:20:01

lære at justere alle sine vægte

01:20:01 –> 01:20:03

og minimere forudsigelses

01:20:03 –> 01:20:05

tabet gennem en masse

01:20:05 –> 01:20:07

træningstrin. Jo mere

01:20:07 –> 01:20:09

data den trænes på, desto bedre

01:20:09 –> 01:20:11

bliver den til det.

01:20:11 –> 01:20:13

Somma summarum

01:20:13 –> 01:20:15

jo mere modellen trænes på

01:20:15 –> 01:20:17

store tekstmængder, desto bedre

01:20:17 –> 01:20:19

bliver dens evne til at forudsige det næste

01:20:19 –> 01:20:21

ord ud fra konteksten.

01:20:21 –> 01:20:23

Til sidst konvergerer modellen

01:20:23 –> 01:20:25

mod optimale vægte,

01:20:25 –> 01:20:27

som giver den her stærke sprogforståelse

01:20:27 –> 01:20:29

og lærer

01:20:29 –> 01:20:31

transformer arkitekturen

01:20:31 –> 01:20:33

at modellere sprog.

01:20:33 –> 01:20:35

Simpelthen ved at

01:20:35 –> 01:20:37

absorberer de statistiske

01:20:37 –> 01:20:39

mønstre fra enorme

01:20:39 –> 01:20:41

sæt af tekst.

01:20:41 –> 01:20:43

Det var en lidt dybere

01:20:43 –> 01:20:45

forståelse.

01:20:45 –> 01:20:47

[Musik]

01:20:47 –> 01:20:57

Nu mangler vi kun at fokusere på

01:20:57 –> 01:20:59

den særlige mekanisme, der kaldes

01:20:59 –> 01:21:01

opmærksomhed eller attention.

01:21:01 –> 01:21:03

Et hold forskere

01:21:03 –> 01:21:05

fra Google udgav et vigtigt

01:21:05 –> 01:21:07

papir med den kække titel

01:21:07 –> 01:21:09

“Attention is all you need”.

01:21:09 –> 01:21:11

Det var i 2017.

01:21:11 –> 01:21:13

Her beskrives

01:21:13 –> 01:21:15

en opmærksomhedsmekanisme,

01:21:15 –> 01:21:17

som er helt afgørende for

01:21:17 –> 01:21:19

transformer arkitekturen.

01:21:19 –> 01:21:21

Kort sagt

01:21:21 –> 01:21:23

så beregner opmærksomhedsfunktionerne

01:21:23 –> 01:21:25

et opmærksomhedstal

01:21:25 –> 01:21:27

for hvert ord.

01:21:27 –> 01:21:29

Et tal, som angiver, hvor vigtigt

01:21:29 –> 01:21:31

ordet er for betydningen af teksten.

01:21:31 –> 01:21:33

Ord med høj

01:21:33 –> 01:21:35

opmærksomhed vægtes højere, når

01:21:35 –> 01:21:37

modellen skal forudse i det næste ord.

01:21:37 –> 01:21:39

Og på den måde fokuserer modellen

01:21:39 –> 01:21:41

mere på ord, som er relevante

01:21:41 –> 01:21:43

for konteksten end på tilfældige

01:21:43 –> 01:21:45

ord og ord, som

01:21:45 –> 01:21:47

ikke gør den store forskel.

01:21:47 –> 01:21:49

Ved at kombinere alle ordvektorerne,

01:21:49 –> 01:21:53

altså alle

01:21:53 –> 01:21:55

ordenes talværdier, med

01:21:55 –> 01:21:57

deres opmærksomhedstal,

01:21:57 –> 01:21:59

kan modellen så generere en kontekstafhængig

01:21:59 –> 01:22:01

forudsigelse.

01:22:01 –> 01:22:03

Efterhånden lærer modellen

01:22:03 –> 01:22:05

de optimale opmærksomhedsfunktioner

01:22:05 –> 01:22:07

gennem træning på store tekstmængder.

01:22:07 –> 01:22:09

Og på den måde så får modellen

01:22:11 –> 01:22:13

evnen til at fokusere på de vigtigste

01:22:13 –> 01:22:15

ord i en given kontekst.

01:22:15 –> 01:22:17

Vi kan igen forestille os

01:22:17 –> 01:22:21

det store sprogerum,

01:22:21 –> 01:22:23

hvor ordene hænger fordelt i luften

01:22:23 –> 01:22:25

i klønger.

01:22:25 –> 01:22:27

Hvis vi er et bestemt sted i rummet,

01:22:27 –> 01:22:29

hvor meget flyttes vi så af de næste

01:22:29 –> 01:22:31

ord i inputteksten?

01:22:31 –> 01:22:33

Et ord med et stort

01:22:33 –> 01:22:35

opmærksomhedstal vil være afgørende

01:22:35 –> 01:22:37

og måske flytter os et helt andet sted hen.

01:22:37 –> 01:22:39

Et ord med et lavt

01:22:39 –> 01:22:41

opmærksomhedstal er ikke så vigtigt.

01:22:41 –> 01:22:43

Så i forhold til

01:22:43 –> 01:22:45

makromodellerne opererer

01:22:45 –> 01:22:47

de store sprogmodeller på et helt

01:22:47 –> 01:22:49

andet niveau.

01:22:49 –> 01:22:51

Via deres opmærksomhedsmekanisme

01:22:51 –> 01:22:53

så spiller

01:22:53 –> 01:22:55

alle tidligere ord i teksten

01:22:55 –> 01:22:57

en vigtig rolle

01:22:57 –> 01:22:59

og ikke kun det seneste.

01:22:59 –> 01:23:01

Den evne til at kigge længere

01:23:01 –> 01:23:03

tilbage giver modellerne

01:23:03 –> 01:23:05

en meget bedre forståelse af konteksten

01:23:05 –> 01:23:07

i en samtale. De kan følge med

01:23:07 –> 01:23:09

i emnet over flere sætninger

01:23:09 –> 01:23:11

eller afsnit, i stedet for at hoppe

01:23:11 –> 01:23:13

tilfældig rundt mellem hybit

01:23:13 –> 01:23:15

forbundne ord.

01:23:15 –> 01:23:17

Så selvom begge metoder

01:23:17 –> 01:23:19

bruger statistiske mønstre

01:23:19 –> 01:23:21

fra tekst, så er

01:23:21 –> 01:23:23

transformermodellerne i stand til

01:23:23 –> 01:23:25

at føre en langt mere meningsfuld dialog

01:23:25 –> 01:23:27

takket være denne her opmærksomhedsfunktion,

01:23:27 –> 01:23:29

der gør det muligt

01:23:29 –> 01:23:31

for modellen at bruge hele

01:23:31 –> 01:23:33

konteksten.

01:23:33 –> 01:23:35

Det kontekstvindue modellerne

01:23:35 –> 01:23:37

kan operere med, svarer ret nøje

01:23:37 –> 01:23:39

til hukommelsen i en samtale.

01:23:39 –> 01:23:41

Det vi sagde

01:23:41 –> 01:23:43

i en samtale for 10 minutter

01:23:43 –> 01:23:45

siden, klinger stadig med

01:23:45 –> 01:23:47

og har betydning for, hvad vi kan sige

01:23:47 –> 01:23:49

og forstå.

01:23:49 –> 01:23:51

Og sådan er det også med

01:23:51 –> 01:23:53

sprogmodellerne.

01:23:53 –> 01:23:55

Sprogmodellernes kontekstvinduer

01:23:55 –> 01:23:57

bliver ved at vokse efterhånden

01:23:57 –> 01:23:59

som modellerne bliver udviklet og kommer

01:23:59 –> 01:24:01

i nye versioner.

01:24:01 –> 01:24:03

En model som Claude fra firmaet

01:24:03 –> 01:24:05

Anthropic kan holde en hel bog

01:24:05 –> 01:24:07

i sin konteksthukommelse.

01:24:07 –> 01:24:09

Nu tænker jeg, at vi har en forståelse

01:24:09 –> 01:24:13

der ikke kan blive meget større

01:24:13 –> 01:24:15

uden at blive egentlig teknisk.

01:24:15 –> 01:24:17

Hvorfor finder jeg nu, at alt det her

01:24:17 –> 01:24:28

er spændende?

01:24:28 –> 01:24:30

En ting er, at det kan være vigtigt at have en

01:24:30 –> 01:24:32

forståelse af en teknologi, som er så

01:24:32 –> 01:24:34

betydningsfuld.

01:24:34 –> 01:24:36

Og det er der slet ingen tvivl om.

01:24:36 –> 01:24:38

Noget andet er,

01:24:38 –> 01:24:40

at der simpelthen er mange potentielle

01:24:40 –> 01:24:42

indsigter i de her teknologier.

01:24:42 –> 01:24:44

Det er fascinerende

01:24:44 –> 01:24:46

for eksempel at tænke på, hvad der

01:24:46 –> 01:24:48

foregår, når vi læser digt

01:24:48 –> 01:24:50

og så i baghovedet have nogle

01:24:50 –> 01:24:52

af de her tanker, som kommer fra

01:24:52 –> 01:24:54

sprogmodellernes verden.

01:24:54 –> 01:24:56

Vi er i en kontekst,

01:24:56 –> 01:24:58

et sted i sprogrummet

01:24:58 –> 01:25:00

og hvert ord sender os i det andet sted hen.

01:25:00 –> 01:25:02

Poesien som genre er

01:25:02 –> 01:25:23

kendetegnet ved, at opmærksomhedstallet

01:25:23 –> 01:25:25

for hvert enkelt ord bør være højt.

01:25:25 –> 01:25:27

Vi skal på en

01:25:27 –> 01:25:29

rejse gennem sprogrummet.

01:25:29 –> 01:25:31

Man kunne forestille sig en figur

01:25:31 –> 01:25:33

tegnet i det her store

01:25:33 –> 01:25:35

sprogrum, en koreograferet

01:25:35 –> 01:25:37

dans eller bevægelse

01:25:37 –> 01:25:39

gennem sprogrummet.

01:25:39 –> 01:25:41

Her er det jo ørte også klart,

01:25:41 –> 01:25:43

hvorfor sprogmodellerne kan skrive

01:25:43 –> 01:25:45

ganske gode prosatekster i

01:25:45 –> 01:25:47

en hel del forskellige genre,

01:25:47 –> 01:25:49

men at det kniber med poesien.

01:25:49 –> 01:25:51

I den typiske prosatekst

01:25:51 –> 01:25:53

er det helt rimeligt,

01:25:53 –> 01:25:55

at de følgende ord er blandt de mest

01:25:55 –> 01:25:57

gennemførende, i hvert fald sådan

01:25:57 –> 01:25:59

det meste af tiden.

01:25:59 –> 01:26:01

Men poesi er

01:26:01 –> 01:26:03

allergisk overfor,

01:26:03 –> 01:26:05

hvad man plejer at sige.

01:26:05 –> 01:26:07

Jeg kaldte

01:26:07 –> 01:26:21

mine egne Markovkædegenereringer

01:26:21 –> 01:26:23

for statistisk cut up.

01:26:23 –> 01:26:25

Er de store

01:26:25 –> 01:26:27

sprogmodeller også bare cut up

01:26:27 –> 01:26:29

på et højere plan, eller

01:26:29 –> 01:26:31

sagt på en anden måde? Kan der komme noget

01:26:31 –> 01:26:33

nyt ud af de her modeller, eller er det

01:26:33 –> 01:26:35

bare avanceret copy and paste?

01:26:35 –> 01:26:37

Der er mange forskellige holdninger

01:26:37 –> 01:26:41

repræsenteret til sådan et spørgsmål,

01:26:41 –> 01:26:43

også blandt forskere og

01:26:43 –> 01:26:45

programmerer. Jeg tænker,

01:26:45 –> 01:26:47

svaret ligger et diffus

01:26:47 –> 01:26:49

sted midt mellem de to positioner.

01:26:49 –> 01:26:51

Det vil være helt absurd at benægte,

01:26:53 –> 01:26:55

at der sker noget, der ligner tænkning

01:26:55 –> 01:26:57

rigtig meget, i hvert fald.

01:26:57 –> 01:26:59

Er det bare noget, der ligner,

01:26:59 –> 01:27:01

jævnfører både Turing-testen

01:27:01 –> 01:27:03

og ELISA-effekten.

01:27:03 –> 01:27:05

Tag et eksempel som

01:27:05 –> 01:27:09

CLORT-modellen, der her for nylig

01:27:09 –> 01:27:11

skulle testes med en såkaldt

01:27:11 –> 01:27:13

nål i en høstak-test.

01:27:13 –> 01:27:15

Det går ud på at give modellen

01:27:15 –> 01:27:17

en meget omfattende tekst,

01:27:17 –> 01:27:19

en meget lang tekst, og et sted

01:27:19 –> 01:27:21

dybt inde i den,

01:27:21 –> 01:27:23

er der gemt svaret på et test-spørgsmål.

01:27:23 –> 01:27:25

Tankegangen er lidt

01:27:25 –> 01:27:27

den samme som hvis man nu ville teste,

01:27:27 –> 01:27:29

om en person virkelig har læst

01:27:29 –> 01:27:31

hele Krig og Fred,

01:27:31 –> 01:27:33

ved at gemme en sætning et sted

01:27:33 –> 01:27:35

langt inde i bogen,

01:27:35 –> 01:27:37

og så spørge til den.

01:27:37 –> 01:27:39

Men det er altså en test,

01:27:39 –> 01:27:41

den her nål i en høstak-test,

01:27:41 –> 01:27:43

som er relevant at give de her

01:27:43 –> 01:27:45

store sprogmodeller, for at se,

01:27:45 –> 01:27:47

om de rent faktisk kan bruge

01:27:47 –> 01:27:49

det der kolossale kontekst-vindue

01:27:49 –> 01:27:51

til noget. Er de i stand til at besvare

01:27:51 –> 01:27:53

spørgsmål, for eksempel, om noget,

01:27:53 –> 01:27:55

som befinder sig langt, langt

01:27:55 –> 01:27:57

tilbage i denne her omfattende

01:27:57 –> 01:27:59

kontekst.

01:27:59 –> 01:28:01

Klort-modellen blev udsat

01:28:01 –> 01:28:03

for den her test, og svaret

01:28:03 –> 01:28:05

helt korrekt. Den havde ingen problemer

01:28:05 –> 01:28:07

med at finde den her nål i høstakken.

01:28:07 –> 01:28:09

Men ikke bare det.

01:28:09 –> 01:28:11

I den svar så kommenterede den,

01:28:11 –> 01:28:13

at den pågældende sætning slagt noget ud

01:28:13 –> 01:28:15

i sammenhængen, og muligvis var

01:28:15 –> 01:28:17

placeret der som en form for test.

01:28:17 –> 01:28:19

Det er sådan et eksempel,

01:28:19 –> 01:28:21

som jeg stadig synes er

01:28:21 –> 01:28:23

ret vildt

01:28:23 –> 01:28:25

at få til at hænge sammen med, at vi

01:28:25 –> 01:28:27

taler om en sprogmodel, der dybest set

01:28:27 –> 01:28:29

bare forudsiger det næste år.

01:28:29 –> 01:28:31

I det hele taget er det sådan,

01:28:31 –> 01:28:35

at de store sprogmodeller

01:28:35 –> 01:28:37

i takt med træningen på stadig

01:28:37 –> 01:28:39

større datamængder udviser

01:28:39 –> 01:28:41

en række egenskaber,

01:28:41 –> 01:28:43

som ingen havde forudset.

01:28:43 –> 01:28:45

Der kommer

01:28:45 –> 01:28:47

de her emergente egenskaber,

01:28:47 –> 01:28:49

der bare viser sig

01:28:49 –> 01:28:51

på et visst tidspunkt.

01:28:51 –> 01:28:53

Nøjagtigt, hvordan man skal forstå det,

01:28:53 –> 01:28:55

er genstand for stor debat.

01:28:55 –> 01:28:57

Fjerde og sidste del.

01:28:57 –> 01:28:59

Vores indre sprogmodel.

01:28:59 –> 01:29:01

Ja.

01:29:01 –> 01:29:03

Nu går vi

01:29:03 –> 01:29:05

tilbage til det,

01:29:05 –> 01:29:07

som vi har sagt i den første del.

01:29:07 –> 01:29:09

Det er den her

01:29:09 –> 01:29:11

sprogmodel,

01:29:11 –> 01:29:13

som vi har lavet.

01:29:13 –> 01:29:15

Den er

01:29:15 –> 01:29:17

en sprogmodel,

01:29:17 –> 01:29:19

som vi har lavet

01:29:19 –> 01:29:21

i den første del.

01:29:21 –> 01:29:23

Den er en sprogmodel,

01:29:23 –> 01:29:25

som vi har lavet

01:29:25 –> 01:29:27

i den første del.

01:29:27 –> 01:29:29

Nu går vi så i gang

01:29:29 –> 01:29:31

med fjerde og sidste del.

01:29:31 –> 01:29:33

Som jeg sagde indledningsvis,

01:29:33 –> 01:29:35

så er jeg optaget af,

01:29:35 –> 01:29:37

hvad de store sprogmodeller

01:29:37 –> 01:29:39

fortæller om os mennesker.

01:29:39 –> 01:29:41

Giver det mening at tale om

01:29:43 –> 01:29:45

vores indre sprogmodel?

01:29:45 –> 01:29:47

Har vi en

01:29:47 –> 01:29:49

chat-gbt indeni?

01:29:49 –> 01:29:51

Fungerer vi sådan?

01:29:51 –> 01:29:53

Ah.

01:29:55 –> 01:29:57

Næppe i særligt høj grad.

01:29:57 –> 01:29:59

På den anden side afhænger det jo af,

01:29:59 –> 01:30:01

hvilket abstraktionsniveau vi anlægger,

01:30:01 –> 01:30:03

når vi sammenligner.

01:30:03 –> 01:30:05

Og på visse abstraktionsniveauer

01:30:05 –> 01:30:07

er jeg sikker på, at der er store

01:30:07 –> 01:30:09

ligeheder.

01:30:09 –> 01:30:11

Trods alt kunne man jo lang tid før

01:30:11 –> 01:30:13

denne her AI-revolution

01:30:13 –> 01:30:15

tænke på

01:30:15 –> 01:30:17

og få øje på, at der er

01:30:17 –> 01:30:19

et klart statistisk aspekt

01:30:19 –> 01:30:21

til vores sprogevne.

01:30:21 –> 01:30:23

Altså, når vi taler

01:30:23 –> 01:30:25

forkert, når vi

01:30:25 –> 01:30:27

overraskes af det ord.

01:30:27 –> 01:30:29

Selve dette,

01:30:29 –> 01:30:31

at vi har rigtig nemt

01:30:31 –> 01:30:33

ved at fortsætte en ordkæde

01:30:33 –> 01:30:35

og byde ind med,

01:30:35 –> 01:30:37

hvad der ville være sandsynlige

01:30:37 –> 01:30:39

fortsættelser.

01:30:39 –> 01:30:41

Alt det her peger på en funktion

01:30:41 –> 01:30:43

vi har, det giver mening at kalde

01:30:43 –> 01:30:45

statistisk baseret.

01:30:45 –> 01:30:47

Det er sjovt at læse

01:30:47 –> 01:30:49

Freuds klassiske tekster, hvor han

01:30:49 –> 01:30:51

analyserer vidigheder og

01:30:51 –> 01:30:53

Freudian slips osv.

01:30:53 –> 01:30:55

Der kan jo sagtens være aspekter

01:30:55 –> 01:30:57

i det, Freud skriver,

01:30:57 –> 01:30:59

der kan give mening. Men i det store af det hele

01:30:59 –> 01:31:01

så virker hans tekster om

01:31:01 –> 01:31:03

fortælser meget anstrengte.

01:31:03 –> 01:31:05

Altså, han gør sig

01:31:05 –> 01:31:07

umådelige anstrengelser for at forklare

01:31:07 –> 01:31:09

sproglige fejl,

01:31:09 –> 01:31:11

som

01:31:11 –> 01:31:13

meget nemt forstås

01:31:13 –> 01:31:15

som effekter af

01:31:15 –> 01:31:17

en form for sprogstatistik,

01:31:17 –> 01:31:19

simpelthen.

01:31:19 –> 01:31:21

Noam Chomsky, som jeg tidligere var

01:31:21 –> 01:31:23

inde på, holder på

01:31:23 –> 01:31:25

at de generative grammatikere

01:31:25 –> 01:31:27

er det grundlæggende og det basale.

01:31:27 –> 01:31:29

Skåret ud i pap

01:31:29 –> 01:31:31

betyder det, at

01:31:31 –> 01:31:33

vi er fyldt med regelsæt,

01:31:33 –> 01:31:35

og det er dem, der producerer sprog

01:31:35 –> 01:31:37

i en proces, der går fra

01:31:37 –> 01:31:39

dybde grammatikere til

01:31:39 –> 01:31:41

overfladet grammatik.

01:31:41 –> 01:31:43

Det forhold, at de

01:31:43 –> 01:31:45

fleste af os er dårlige til

01:31:45 –> 01:31:47

grammatik og synes det er svært,

01:31:47 –> 01:31:49

samtidig med at vi som intuitive sprogbrugere

01:31:49 –> 01:31:51

er overordentligt gode til

01:31:51 –> 01:31:53

grammatik, sætter i sig selv

01:31:53 –> 01:31:55

spørgsmålstegn ved Chomskys

01:31:55 –> 01:31:57

anskuelse.

01:31:57 –> 01:31:59

De store sprogmodeller demonstrerer,

01:31:59 –> 01:32:01

at man kan komme rigtig langt med statistik.

01:32:01 –> 01:32:03

Chat-QPT kan

01:32:03 –> 01:32:05

producere grammatisk korrekt sprog

01:32:05 –> 01:32:07

i lange baner. Den kan også sige

01:32:07 –> 01:32:09

en masse korrekt om grammatik.

01:32:09 –> 01:32:11

Men

01:32:11 –> 01:32:13

det er præcis ligesom hos mennesker, at der er ingen sammenhæng

01:32:13 –> 01:32:15

overhovedet mellem de to ting.

01:32:15 –> 01:32:17

Altså hvis Chat-QPT skriver noget

01:32:17 –> 01:32:19

om grammatik og lingvistik,

01:32:19 –> 01:32:21

så er det bare

01:32:21 –> 01:32:23

flere ord produceret

01:32:23 –> 01:32:25

på samme måde af det statistiske netværk.

01:32:25 –> 01:32:27

Det er ikke ligesom en viden,

01:32:27 –> 01:32:29

som indgår i den måde,

01:32:29 –> 01:32:31

den producerer sprog på.

01:32:31 –> 01:32:33

Det er ikke en viden, der bruges

01:32:33 –> 01:32:35

i ordproduktionen.

01:32:35 –> 01:32:37

Der er ikke nogen schemaer

01:32:37 –> 01:32:39

eller generativ grammatikker nogen steder.

01:32:39 –> 01:32:41

Selve

01:32:41 –> 01:32:43

demonstrationen af, at man kan komme

01:32:43 –> 01:32:45

overraskende langt på den måde,

01:32:45 –> 01:32:47

sætter

01:32:47 –> 01:32:49

alvorlige spørgsmålstegn ved

01:32:49 –> 01:32:51

den generativ

01:32:51 –> 01:32:53

grammatik

01:32:53 –> 01:32:55

ved den måde at tænke på.

01:32:55 –> 01:32:57

Det lader til, at statistikken

01:32:57 –> 01:32:59

har vundet.

01:32:59 –> 01:33:01

Og jeg må indrømme, at det

01:33:01 –> 01:33:03

giver mig den tanke, at kvantitet

01:33:03 –> 01:33:05

faktisk slår over

01:33:05 –> 01:33:07

i kvalitet.

01:33:07 –> 01:33:09

Og når vi

01:33:09 –> 01:33:11

typisk ikke synes, at det bør være sådan,

01:33:11 –> 01:33:13

så skyldes det, at vi er fremmede

01:33:13 –> 01:33:15

over for de mængder og de hastigheder,

01:33:15 –> 01:33:17

der er tale om.

01:33:17 –> 01:33:19

Selv forskerne i kunstig

01:33:19 –> 01:33:21

intelligensmiljøet blev chokeret

01:33:21 –> 01:33:23

over den revolution, der skete.

01:33:23 –> 01:33:25

Og det var jo ikke fordi,

01:33:25 –> 01:33:27

at modellernes mekanik var

01:33:27 –> 01:33:29

radikalt ny.

01:33:29 –> 01:33:31

Det allernyeste,

01:33:31 –> 01:33:33

det allerstørste ændring,

01:33:33 –> 01:33:35

det var jo simpelthen mængden

01:33:35 –> 01:33:37

af tekst, der kom ind.

01:33:37 –> 01:33:39

Størrelsen og hastigheden

01:33:39 –> 01:33:41

af modellernes neurale netværk.

01:33:41 –> 01:33:43

Så hvis vi køber den forståelse,

01:33:43 –> 01:33:47

jeg skitserer her,

01:33:47 –> 01:33:49

så betyder det, at lingvistik og grammatik

01:33:49 –> 01:33:51

det er sådan nogle after-the-fact

01:33:51 –> 01:33:53

fænomener.

01:33:53 –> 01:33:55

Det er konstruktioner og regelsæt,

01:33:55 –> 01:33:57

der ikke findes nogen steder overhovedet,

01:33:57 –> 01:33:59

men som vi kan producere

01:33:59 –> 01:34:01

som komprimerede versioner

01:34:01 –> 01:34:03

af nogle statistiske

01:34:03 –> 01:34:05

systemer.

01:34:05 –> 01:34:07

Men tilbage til os mennesker.

01:34:07 –> 01:34:11

Jeg er overbevist om,

01:34:11 –> 01:34:13

at det ikke er så dumt endda,

01:34:13 –> 01:34:15

som en første tilnærmelse

01:34:15 –> 01:34:17

at tale om vores egen

01:34:17 –> 01:34:19

indre sprogmodel.

01:34:19 –> 01:34:21

Altså jeg mener,

01:34:21 –> 01:34:23

at hvis man sådan klemmer øjnene lidt sammen,

01:34:23 –> 01:34:25

så kan man godt

01:34:25 –> 01:34:27

få øje på noget i os,

01:34:27 –> 01:34:29

der fungerer på en

01:34:29 –> 01:34:31

chat-GPT-agtig måde.

01:34:31 –> 01:34:33

Men det er selvfølgelig yderst vigtigt,

01:34:33 –> 01:34:35

at vi er andet og mere.

01:34:35 –> 01:34:37

Og det er vigtigt at understrege,

01:34:37 –> 01:34:39

at der er meget mere på spil i os.

01:34:39 –> 01:34:41

Man kan formulere det

01:34:41 –> 01:34:43

som et spørgsmål om, hvad mening er.

01:34:43 –> 01:34:45

Mening er jo ikke én ting.

01:34:45 –> 01:34:49

Mening er et sammensat fænomen.

01:34:49 –> 01:34:51

Det kan analyseres

01:34:51 –> 01:34:53

i en hel række bestanddele,

01:34:53 –> 01:34:55

som virker sammen.

01:34:55 –> 01:34:57

Et aspekt

01:34:57 –> 01:34:59

er så, hvad vi kan kalde det statistiske

01:34:59 –> 01:35:01

eller det rent sprogligt kontekstuelle.

01:35:01 –> 01:35:03

Når vi spørger til,

01:35:03 –> 01:35:05

hvad et ord betyder,

01:35:05 –> 01:35:07

er det for eksempel ofte et godt svar

01:35:07 –> 01:35:09

at angive eksempler på, hvordan det bruges.

01:35:09 –> 01:35:11

Det fanger ganske meget af,

01:35:11 –> 01:35:13

hvad vi mener med betydning og mening.

01:35:13 –> 01:35:15

Og det svarer jo i høj grad

01:35:15 –> 01:35:17

til sprogmodellens “viden”

01:35:17 –> 01:35:19

i anførselstegn

01:35:19 –> 01:35:21

om et givet ord.

01:35:21 –> 01:35:23

Men der er jo mange andre aspekter.

01:35:23 –> 01:35:25

Med et ord kan man tale om “grounding”.

01:35:25 –> 01:35:27

Hvor sidder betydningerne fast?

01:35:27 –> 01:35:29

Hvad sidder de fast i?

01:35:29 –> 01:35:31

Vi har en krop.

01:35:31 –> 01:35:35

Eller rettere sagt,

01:35:35 –> 01:35:37

du og jeg er krop.

01:35:37 –> 01:35:39

Vi er levende organismer.

01:35:39 –> 01:35:41

Vi har behov

01:35:41 –> 01:35:43

og motivationer.

01:35:43 –> 01:35:45

Vi vil noget.

01:35:45 –> 01:35:47

Der er noget, der er farligt for os.

01:35:47 –> 01:35:49

Der er noget, der er truende for os.

01:35:49 –> 01:35:51

Der er noget, der er rart, tiltrækkende, nærende.

01:35:51 –> 01:35:53

Vores organisme oprettholder sig selv

01:35:53 –> 01:35:57

i en proces.

01:35:57 –> 01:35:59

En proces, der hele tiden

01:35:59 –> 01:36:01

er i gang

01:36:01 –> 01:36:03

og som kræver en masse

01:36:03 –> 01:36:05

selvoprettholdelse.

01:36:05 –> 01:36:07

Et simpelt eksempel.

01:36:07 –> 01:36:11

Ordet “jeg” kan forstås

01:36:11 –> 01:36:13

sprogligt statistisk.

01:36:13 –> 01:36:15

Chat-GPT kan sagtens bruge

01:36:15 –> 01:36:17

ordet “jeg” korrekt

01:36:17 –> 01:36:19

i en masse udsagn.

01:36:19 –> 01:36:21

99,99% af tiden.

01:36:21 –> 01:36:23

Men når Chat-GPT bruger

01:36:25 –> 01:36:27

ordet “jeg” korrekt,

01:36:27 –> 01:36:29

så rammer det ikke noget.

01:36:29 –> 01:36:31

Det sidder ikke fast på noget.

01:36:31 –> 01:36:33

For mig og dig er ordet “jeg”

01:36:33 –> 01:36:35

bundet til udsigelsesøjeblikket.

01:36:35 –> 01:36:37

Til os selv, som udsiger.

01:36:37 –> 01:36:39

Jeg er min krop

01:36:39 –> 01:36:41

her, nu.

01:36:41 –> 01:36:43

Og for Chat-GPT, der er ikke rigtig noget

01:36:43 –> 01:36:49

tilsvarende.

01:36:49 –> 01:36:51

Ord har også en historie i os

01:36:53 –> 01:36:55

og den historie er konkret.

01:36:55 –> 01:36:57

Nogle af de ord, vi bruger,

01:36:57 –> 01:37:01

er forbundet med sansninger,

01:37:01 –> 01:37:03

erindringer, kontekster.

01:37:03 –> 01:37:05

Alt sammen noget, som klinger med

01:37:05 –> 01:37:07

i det her statistiske, på en kompleks

01:37:07 –> 01:37:09

og dynamisk fasong.

01:37:09 –> 01:37:11

Hvad hvis jeg, for en krop,

01:37:11 –> 01:37:13

bliver bygget ind i en robot

01:37:13 –> 01:37:15

med sanser og det hele?

01:37:15 –> 01:37:17

Hvis jeg får en slags metabolisme

01:37:17 –> 01:37:19

og lærer sprog, som et menneske gør det

01:37:19 –> 01:37:21

med kontekster, med sansekvaliteter

01:37:21 –> 01:37:23

og det hele.

01:37:23 –> 01:37:25

Kan jeg så blive et “jeg”?

01:37:25 –> 01:37:27

Kan jeg så blive et “du”?

01:37:27 –> 01:37:29

Jeg ved det ikke rigtigt, Christel.

01:37:29 –> 01:37:31

Der er noget i mig, der siger

01:37:31 –> 01:37:33

“Ja, du vil så være

01:37:33 –> 01:37:35

din egen eksistensform.”

01:37:35 –> 01:37:37

Men der er i hvert fald ingen tvivl om,

01:37:37 –> 01:37:41

at der vil være mindre og mindre

01:37:41 –> 01:37:43

markante forskeller at pege på

01:37:43 –> 01:37:45

mellem dig og et menneske,

01:37:45 –> 01:37:47

jo mere de ting, du nævner,

01:37:47 –> 01:37:49

Ja, spørgsmålet er jo,

01:38:18 –> 01:38:20

hvilket arbejde det ord “narrer” gør.

01:38:20 –> 01:38:23

Spørgsmålet er, om der er nogen forskel tilbage,

01:38:23 –> 01:38:27

når vi ikke længere kan skælne.

01:38:27 –> 01:38:29

Men nu er vi jo for alvor inde på

01:38:29 –> 01:38:42

selve bevidsthedens problem,

01:38:42 –> 01:38:44

eller gåde.

01:38:44 –> 01:38:45

“The Hard Problem”,

01:38:45 –> 01:38:47

som filosofen David Chalmers har navngivet det.

01:38:47 –> 01:38:51

Det kommer vi ikke til at løse lige inden lukketid

01:38:51 –> 01:38:54

på den her episode.

01:38:54 –> 01:38:56

Men måske er det allerede løst i “Blade Runner”

01:38:56 –> 01:39:01

i drømmer af androider om elektriske form.

01:39:01 –> 01:39:05

Deckard, detektiven, er på jagt efter

01:39:05 –> 01:39:09

de undvægende replikanter.

01:39:09 –> 01:39:12

Replikanterne ligner på alle måder mennesker.

01:39:12 –> 01:39:16

De ligner mennesker så meget,

01:39:16 –> 01:39:19

at man først kan være sikker på,

01:39:19 –> 01:39:21

at de er replikanter,

01:39:21 –> 01:39:23

ved hjælp af en særlig teknisk test,

01:39:23 –> 01:39:26

den såkaldte Voigt-Kampff-test.

01:39:26 –> 01:39:29

Og selvom det bare er en fiktion,

01:39:29 –> 01:39:35

så er det værd at tænke over,

01:39:35 –> 01:39:37

hvad den situation ville betyde.

01:39:37 –> 01:39:40

Hvad ville det betyde,

01:39:41 –> 01:39:43

hvis nogle af os var ægte mennesker,

01:39:43 –> 01:39:47

og nogle af os var simulerede mennesker?

01:39:47 –> 01:39:51

Og den eneste måde, vi kunne se forskel på,

01:39:51 –> 01:39:54

var ved at bruge en specialiseret test.

01:39:54 –> 01:39:58

Hvilken forskel skulle det gøre,

01:39:58 –> 01:40:03

om man bestod den test eller ej?

01:40:03 –> 01:40:06

I Blade Runner og i andre Philip K. Dick’s tekster,

01:40:10 –> 01:40:14

er der det her underliggende tema på spil.

01:40:14 –> 01:40:18

Man opfordres til at kigge på sig selv i spejlen

01:40:18 –> 01:40:22

og spørge,

01:40:22 –> 01:40:24

hvad hvis jeg er en replikant?

01:40:24 –> 01:40:28

Jeg ved ikke med dig,

01:40:28 –> 01:40:33

men jeg er i hvert fald i stand til

01:40:33 –> 01:40:35

at både nære mig selv og andre.

01:40:35 –> 01:40:38

Jeg består Turing-testen,

01:40:39 –> 01:40:43

og jeg ligger under for Elisa Effetto.

01:40:43 –> 01:40:47

Hvad er det, du gør, når du er en replikant?

01:40:48 –> 01:40:52

Jeg er en replikant,

01:40:52 –> 01:40:55

og jeg er en replikant.

01:40:55 –> 01:40:58

Jeg er en replikant,

01:40:58 –> 01:41:01

og jeg er en replikant.

01:41:01 –> 01:41:04

Jeg er en replikant,

01:41:04 –> 01:41:07

og jeg er en replikant.

01:41:07 –> 01:41:10

Jeg er en replikant,

01:41:10 –> 01:41:13

og jeg er en replikant.

01:41:13 –> 01:41:16

Jeg er en replikant,

01:41:16 –> 01:41:19

og jeg er en replikant.

01:41:19 –> 01:41:22

Jeg er en replikant,

01:41:23 –> 01:41:26

og jeg er en replikant.

01:41:26 –> 01:41:29

(Musik)

01:41:29 –> 01:41:32

Du lyttede til podcasten “Om det hele og resten”,

01:41:57 –> 01:42:00

en soloepisode med titlen “De store sprogmodeller halucinerer”.

01:42:00 –> 01:42:04

Speak, tekst og produktion Thomas Tøfner.

01:42:04 –> 01:42:08

Øvrige medvirkende

01:42:08 –> 01:42:10

mig, Christel.

01:42:10 –> 01:42:12

Musikken er kaldes.

01:42:12 –> 01:42:14

Det vil sige Kalle Esbjørn Tøfner.

01:42:14 –> 01:42:20

Ved du forresten, at “Om det hele og resten”

01:42:20 –> 01:42:23

har en automatisk telefonsvarer?

01:42:23 –> 01:42:26

Den har nummer 7 7 3 4 20 24.

01:42:26 –> 01:42:31

Ring og indtal et spørgsmål om det hele,

01:42:31 –> 01:42:34

eller læg en kommentar.

01:42:34 –> 01:42:36

Læs mere på omdhele.dk.

01:42:36 –> 01:42:40

Tak for, at du lyttede.

01:42:40 –> 01:42:42

Beste hilsner, Thomas.

01:42:42 –> 01:42:44


Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *