Den påståelige onkel- ChatGPT besidder uendelig arrogance

2 Min læsning

I forbindelse med mit bogprojekt “Argumenter for mennesker” har jeg efterhånden ført en del samtaler med ChatGPT. Bevares den kan svare på en del og er det meste af tiden også utrolig høflig. (Imodsætningen til mange mennesker, som har til opgave at yde service). Men hillemænd hvor er den også umenneskelig arrogant.

 

En tydelig egenskab ved den nye kunstige samtalepartner som i den grad viser, at den ikke er menneske, er det komplette fravær af tvivl i dens svar. Den lever her komplet op til maskinens ry for manglende nuancer og sort hvid tænkning. Den tror virkelig på det den siger, og er helt ekstremt overbevist om egen kompentence. 

 

Et fornuftigt og høfligt menneske vil ofte indbygge plads til usikkerhed og angive sin kilde ved fx. at sige 

 

“Jeg tror det er..”. “Jeg har læst i en bog at..”. “Fru Nielsen sagde det”. 

 

Hvorimod maskinen udtrykker sig med en imponerende selvtillid uden noget som helst forbehold. Og uden at referere til hvor den har sin viden fra. En ret asocial adfærd som vi ellers kun ville opleve det fra den mest påståelige og stædige onkel, som ingen faktisk orker at diskutere med. Her blander ChatGPT fx. mig meget selvsikkert sammen med techsitet Version2.dk som jeg aldrig har haft noget som helst relation til.

 

“Christiane Vejlø er en dansk tech-journalist og iværksætter. Hun er kendt for at være grundlæggeren af og redaktøren bag sitet Version2.dk, som er en førende dansk nyhedsportal inden for IT- og teknologibranchen”.

 

Det siger sig selv, at vi skal være endnu mere kildekritiske end nogensinde, når en høflig chatbot med selvfed serviceorienteret overbevisning giver os et svar. For svaret er aldrig bedre end, den data maskinen arbejder med, og den kan der sagtens være fejl i. Husk på at maskinen typisk trækker på alt muligt, som mennesker har lagt ud på internettet. Så den har både fat i universitetsforskning, konspirationsteorier og racistiske jokes. Samtidig kan maskinen også komme til at sætte eksisterende data helt forkert sammen. Som da den gjorde mig til Version2 redaktør. 

 

Nogle gange kan det være svært at gennemskue præcist hvad der er, der sker, når maskinen vrøvler ting frem som simpelthen ikke findes. Man siger så om den, at den “hallucinerer”. Men det er et udtryk, som får den til at lyde mere menneskelig end den er. Den er ikke en gammel hippie, som tripper på svampe. Den er bare en maskine, som har samlet ord i forkert rækkefølge.

Så selvom den kunstige intelligens som udgangspunkt er tænkt, som menneskets tjener, og uden tvivl vil kunne hjælpe os med at løse nogle af menneskehedens allerstørste udfordringer, så er en skepsis overfor dens svar en absolut nødvendighed.

15.000+ abonnerer allerede på Christianes personlige nyhedsbrev

Vil du også have adgang til gratis insider-fordele, analyser, podcasts og e-bøger om fremtidstendenser og afgørende techtrends?

Del dine tanker?

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

1 × 1 =

No Comments Yet.