AI-ordbog for kommunikationsfolk

AI-ordbog for kommunikationsfolk

Sådan bruger du AI-ordbogen

Denne AI-ordbog for kommunikationsfolk dækker de begreber, jeg oftest møder i mit arbejde med AI og kommunikation. Feltet udvikler sig hurtigt, og nye ord dukker op løbende.

Savner du et begreb, eller er der noget, der bør opdateres? Skriv til mig på per@psommer.dk.

A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Æ | Ø | Å

A

AI er den engelske betegnelse for kunstig intelligens. Begrebet bruges ofte i daglig tale, men henviser til det samme som opslaget Kunstig intelligens længere nede på siden.

En AI-agent er et system, der ikke kun svarer på spørgsmål, men også udfører handlinger på dine vegne. Hvor en almindelig sprogmodel (LLM) skriver tekst ud fra dine instruktioner, kan en AI-agent selv planlægge næste skridt, hente information, udføre opgaver og reagere på ændringer i omgivelserne.

AI-agenter kombinerer flere teknologier: sprogmodeller, værktøjer, handlinger og nogle gange adgang til eksterne systemer. Det gør dem i stand til at løse opgaver mere selvstændigt og i længere sekvenser uden at du behøver styre hvert trin.

I kommunikationsarbejde kan AI-agenter for eksempel:

  • planlægge en indholdsplan ud fra data og tidligere opslag
  • hente statistik, bearbejde den og lave en rapport
  • overvåge bestemte kilder og sende et resumé, når noget ændrer sig
  • strukturere research og levere den i et samlet dokument

 

AI-agenter er et skridt videre end Custom GPT’er. Hvor Custom GPT’er følger dine faste instruktioner, er AI-agenter skabt til at handle og løse opgaven – ikke kun skrive tekst om den.

Læs mere
Wikipedia – Intelligent agent

En algoritme er en række faste trin, som en computer følger for at løse en opgave. Den fungerer som en opskrift: først sker det ene, derefter det næste, og til sidst giver systemet et resultat.

Algoritmer er centrale i kunstig intelligens, fordi de styrer, hvordan modeller lærer af data. De afgør, hvordan tekst bliver analyseret, hvordan mønstre bliver fundet, og hvordan et svar bliver beregnet. Uden algoritmer ingen kunstig intelligens — de er selve mekanikken bag teknologien.

Algoritmer er især kendt fra sociale medier. Her analyserer de, hvad brugere klikker på, hvor længe de ser et opslag, og hvilke emner de viser interesse for. På den baggrund beslutter algoritmen, hvilke opslag der skal vises først i feedet. Formålet er at holde brugeren engageret så længe som muligt.

Læs mere
Wikipedia – Algoritme

Apple Intelligence er Apples system til generativ kunstig intelligens, som er udviklet til at fungere direkte på deres egne enheder. Systemet kombinerer lokale beregninger på iPhone, iPad og Mac med udvalgt cloud-baseret AI, så opgaver kan løses både sikkert og hurtigt.

Apple Intelligence er integreret i styresystemerne iOS, iPadOS og macOS og fungerer som et lag, der skal forbedre brugerens daglige apps og arbejdsgange.

Systemet arbejder kontekstuelt – det forstår, hvad du laver i øjeblikket, og foreslår handlinger eller genererer indhold ud fra det.

For brugerne betyder det, at Apple-enheder kan:

  • skrive og forbedre tekst på tværs af apps
  • foreslå omskrivninger, korrektur og kortere versioner
  • analysere beskeder, mails og dokumenter lokalt
  • opsummere indhold
  • generere billeder gennem værktøjet Image Playground
  • tilpasse Siri, så assistenten bliver mere naturlig og kontekstforstået


En central del af Apple Intelligence er Private Cloud Compute, hvor mere komplekse opgaver sendes til Apple-styrede servere. Data gemmes ikke og bruges ikke til træning.

Apple Intelligence er i første omgang tilgængelig på nyere Apple-enheder med den nødvendige processorkraft (bl.a. iPhone med A17-chip og nyere Mac-modeller).

Læs mere
Wikipedia – Apple Intelligence (på engelsk)

B

Bias betyder skævhed i en AI-models svar. Det opstår, når modellen er trænet på data, der ikke er neutrale, eller hvor nogle perspektiver fylder mere end andre. Fordi modellen lærer af store tekstmængder fra internettet, kan den ubevidst gentage fordomme, stereotyper eller skævvridninger fra træningsdataene.

Bias kan komme til udtryk som:

  • kønsstereotyper (“lederen” bliver ofte skrevet som en mand)
  • kulturelle antagelser, der ikke passer i en dansk eller europæisk kontekst
  • sproglige skævheder, hvor modellen foretrækker bestemte udtryk
  • misrepræsentation af minoriteter
  • politiske vinkler, som ikke er neutrale.

 

I kommunikationsarbejde er bias særligt vigtigt at kende, fordi AI kan farve tone, eksempler eller konklusioner i en retning, der ikke passer til organisationens værdier.

Derfor er det en god idé altid at:

  • læse AI-udkast kritisk
  • tjekke om formuleringer eller eksempler virker skæve
  • være opmærksom på køn, kultur og stereotyper
  • justere prompten for at styre tonen (“skriv kønsneutralt”, “undgå stereotyper” osv.)

 

Bias er ikke noget, man kan undgå fuldstændigt, men noget man skal være bevidst om og rette i den endelige tekst.

Læs mere
Wikipedia – Algorithmic bias (på engelsk)

C

Canvas er et arbejdsområde i ChatGPT, hvor du kan skrive, redigere og udvikle indhold direkte i et dokument. I stedet for at arbejde i traditionelle chats, giver Canvas et større og mere roligt skrivefelt, hvor struktur og tekst står tydeligt.

Canvas er især nyttigt, når du arbejder med længere eller mere sammenhængende opgaver som artikler, nyhedsbreve, manuskripter og briefinger. Du kan skrive i dokumentet samtidig med, at ChatGPT kommer med forslag, omskrivninger eller nye afsnit. Canvas gør det derfor lettere at arbejde i iterationer og se ændringer i fuld kontekst.

I kommunikationsarbejde bruges Canvas typisk til:

  • udkast til artikler og rapporter
  • manuskripter til podcasts og videoer
  • nyhedsbreve, hvor man løbende finjusterer indhold
  • strukturering af kampagner, planer eller oplæg
  • dokumenter, hvor man ønsker et fuldt overblik frem for korte chatbeskeder

 

Canvas fungerer bedst sammen med projekter, fordi du kan samle filer, noter og tidligere udkast ét sted og derefter skrive den færdige tekst i Canvas.

Læs mere
Openai – Vi introducerer canvas

ChatGPT er et værktøj, der bygger på store sprogmodeller (LLM) og bruger generativ kunstig intelligens til at forstå og producere tekst. Du skriver en instruktion, og modellen svarer med tekst, der matcher din hensigt og tone.

ChatGPT bruges i kommunikationsarbejde til at skrive udkast, forbedre formuleringer, omformulere budskaber, lave research, strukturere materiale og udvikle idéer. Det fungerer som en sparringspartner, der arbejder hurtigt og kan levere flere versioner af samme indhold.

ChatGPT findes både som gratis og betalt version. Den gratis udgave giver adgang til en ældre model, mens Plus-versionen giver adgang til de nyeste og mest præcise modeller samt funktioner som projekter og egne Custom GPT’er.

ChatGPT ejes og udvikles af virksomheden OpenAI, et forsknings- og udviklingsfirma med fokus på kunstig intelligens.

ChatGPT er produktnavnet. Det er ikke det samme som GPT-modellen, som er teknologien bag. ChatGPT er brugergrænsefladen, mens GPT er sprogmodellen, der genererer svarene.

Læs mere
ChatGPT’s hjemmeside
Wikipedia – ChatGPT

Claude er en LLM udviklet af virksomheden Anthropic. Den fungerer på samme måde som ChatGPT og Gemini og bruges til at skrive tekster, analysere indhold, opsummere dokumenter og løse komplekse sproglige opgaver.

Claude bygger på en metode, Anthropic kalder konstitutionel AI. Modellen er trænet efter et sæt faste principper og værdier, som fungerer som dens “grundlov”. I stedet for udelukkende at efterligne menneskelig adfærd vurderer og justerer modellen selv sine svar ud fra disse principper. Formålet er at skabe mere stabile og forudsigelige svar.

For kommunikationsfolk betyder det, at Claude ofte leverer:

  • mere konsistente og neutrale formuleringer
  • lavere risiko for, at modellen finder på fakta
  • en mere afbalanceret tone
  • bedre kvalitet i længere, strukturerede tekster

 

Til gengæld er Claude efter min erfaring ikke helt så stærk på dansk som ChatGPT. Jeg bruger den derfor primært til opgaver, hvor præcision og struktur er vigtigere end tone. Claude er blandt andet meget stærk til at arbejde med data. Jeg har brugt den til at opbygge dashboards over udviklingen i abonnenter på nyhedsbreve, og den løser den type opgaver meget præcist.

Læs mere
Claudes egen hjemmeside
Wikipedia – Claude.ai

Copilot er Microsofts AI-assistent, som er integreret i Office-værktøjerne og Windows. Den bygger på store sprogmodeller og hjælper med at skrive, analysere og strukturere indhold direkte i programmer som Word, Outlook, PowerPoint, Excel og Teams.

Copilot fungerer som en indbygget hjælper, der kan:

  • skrive udkast til mails, dokumenter og præsentationer
  • opsummere møder og chatbeskeder
  • lave analyser i Excel med almindelige sætninger
  • foreslå forbedringer til tekster
  • skabe visuelle slides ud fra stikord
  • finde information i filer, du allerede arbejder med

 

Copilot er udviklet til at gøre daglige opgaver hurtigere og mere strukturerede – især i store organisationer, hvor mange arbejder i de samme Office-værktøjer. Fordi Copilot er integreret direkte i systemet, bruger den data fra dokumenter, mails og møder på en måde, der passer til arbejdsflowet i Microsoft 365.

Der findes også Copilot Pro til privatpersoner og Copilot for Microsoft 365 til virksomheder, som giver adgang til flere funktioner og bedre datasikkerhed.

Læs mere
Copilots egen hjemmeside
Wikipedia – Microsoft Copilot (på engelsk)

En Custom GPT er en skræddersyet udgave af ChatGPT, hvor du bestemmer, hvordan modellen skal arbejde. Du kan give den faste instruktioner, vælge tone og stil og tilføje baggrundsviden, så den løser en bestemt type opgave mere stabilt end den almindelige ChatGPT.

I kommunikationsarbejde bruges Custom GPT’er til faste opgaver som nyhedsbreve, artikler, opslag, opsummeringer og research.

Kort eksempel
En kommunikationsafdeling laver en Custom GPT til nyhedsbreve. Den får afdelingens tone, eksempler på tidligere udsendelser og en fast struktur med længde, mellemoverskrifter og CTA. Når en medarbejder uploader stikord og budskaber, skriver Custom GPT’en et udkast, der rammer formen med det samme. Det giver mere ensartet kvalitet og mindre tid på redigering.

Hvis man bruger Team-versionen af ChatGPT, kan Custom GPT’er deles med kolleger, så hele afdelingen arbejder ud fra de samme standarder og instruktioner.

Læs mere
OpenAI – Introducing GPTs

D

DALL·E er OpenAIs værktøj til at generere billeder ud fra tekstbeskrivelser eller referencebilleder. Du skriver, hvad du vil have — en scene, en stil, et motiv eller en stemning — og DALL·E skaber et billede, der matcher dine instruktioner.

DALL·E bruges til alt fra idéskitser og skabeloner til færdige illustrationer. Det er særligt nyttigt i kreativitetsfaser, hvor man hurtigt vil undersøge flere visuelle retninger uden at tegne eller fotografere selv.

For kommunikationsfolk kan DALL·E bruges til:

  • visualiseringer i tidlige konceptfaser
  • mockups til sociale medier og præsentationer
  • illustrationer til artikler og rapporter
  • at afprøve farver, kompositioner og stilarter
  • referencebilleder, der senere kan bruges i Sora

DALL·E arbejder med stillbilleder, mens Sora arbejder med levende billeder. Mange bruger derfor DALL·E til at udvikle eller afklare det visuelle udtryk, før de går videre til video i Sora

Læs mere
DALL-E’s egen hjemmeside
Wikipedia – DALL-E (på engelsk)

Datasikkerhed i ChatGPT handler om, hvordan dine oplysninger og dokumenter bliver behandlet, når du arbejder i tjenesten. Det er vigtigt for os kommunikationsfolk, der ofte håndterer interne dokumenter, analyser, notater og personoplysninger.

Når du bruger den almindelige gratis version af ChatGPT, kan dine inputs indgå i OpenAIs fremtidige træning af modeller, med mindre du aktivt slår det fra. Derfor bør man undgå at dele fortrolige dokumenter, persondata eller interne oplysninger i gratisversionen.

Med ChatGPT Plus bliver dine data ikke brugt til at træne modellerne, men det er stadig en privat brugerkonto, som ikke er egnet til følsomt arbejdsrelateret materiale.

ChatGPT Team og Enterprise giver den højeste grad af datasikkerhed. Her bliver dine data ikke brugt til træning, og organisationen får kontrol over adgang, deling og datalagring. Det er den mest ansvarlige løsning til professionel kommunikation

Datasikkerhed i Gemini, Claude og andre AI-værktøjer

De fleste AI-tjenester følger samme grundlæggende princip: gratis versioner bruger ofte inputs til modeltræning, mens betalte eller virksomhedsrettede versioner tilbyder højere datasikkerhed.

Gemini: I gratisversionen kan inputs bruges til træning, mens business- og enterprise-versioner tilbyder øget kontrol og begrænser datadeling.

Claude: Anthropic bruger inputs fra gratisversionen til træning, men betalende kunder (Claude Pro og Team) kan slå træning fra og arbejde mere sikkert.

Perplexity og andre tjenester: Gratis brug medfører typisk datalagring til forbedring af systemet, mens betalte versioner giver bedre databeskyttelse.

Praktisk tommelfingerregel
Hvis du arbejder med materiale, der ikke bør forlade organisationen, så brug altid en version målrettet virksomheder – uanset platform.

DeepSeek er en kinesisk udviklet sprogmodel, der fungerer som et alternativ til ChatGPT, Gemini og Claude.

Modellen fik stor international opmærksomhed, fordi den leverede stærke resultater, selv om den blev udviklet for langt færre penge end vestlige modeller.

DeepSeek er særligt kendt for tre ting:

1. Meget lave udviklingsomkostninger
Modellen blev udviklet og trænet betydeligt billigere end GPT-4 og andre store modeller. DeepSeek-teamet optimerede både modelarkitektur, datasæt og hardwareudnyttelse, hvilket gjorde det muligt at træne modellen med langt lavere omkostninger uden at gå på kompromis med kvaliteten.

2. Overraskende performance
På trods af sin lave træningspris klarede DeepSeek sig imponerende godt i benchmarks. Den leverede stærke resultater i matematik, kodning, dataanalyse og tekniske opgaver og matchede eller overgik vestlige modeller, der ellers kræver langt større datacentre og budgetter.

3. Fokus på effektivitet frem for størrelse
DeepSeek er bygget til at være hurtig, let og billig at køre. Den bruger mindre computerkraft end mange andre modeller, hvilket gør den mere tilgængelig for både udviklere og organisationer, der ønsker en effektiv AI-løsning.

Datasikkerhed og Kina

Der er international bekymring om datasikkerhed, når man bruger kinesisk AI-teknologi. Kinesiske love kan give staten adgang til data fra virksomheder med base i Kina, og flere eksperter anbefaler derfor forsigtighed. Du bør undgå at bruge DeepSeek til følsomme oplysninger, interne dokumenter eller persondata i professionelle sammenhænge.

Læs mere
DeepSeeks egen hjemmeside
Wikipedia – DeepSeek

E

Etik i forhold til kunstig intelligens handler om, hvordan det bruges på en ansvarlig måde. Når modeller kan skabe tekst, billeder og beslutningsgrundlag, påvirker de både mennesker, organisationer og den offentlige samtale. Etikken i AI handler derfor om at sikre, at teknologien bruges fair, gennemsigtigt og uden at skade nogen.

Centrale spørgsmål i AI-etik handler om:

  • transparens – gør man det tydeligt, hvornår indhold er AI-genereret?
  • ansvar – hvem tager ansvar, når AI giver forkerte svar eller skaber problemer?
  • datasikkerhed – hvordan behandles de oplysninger, man uploader?
  • bias – risikerer teknologien at forstærke stereotyper eller skævheder?
  • privatliv – bruger værktøjet inputs til træning, og hvordan beskyttes persondata?
  • påvirkning – hvordan påvirker AI tekster, tone og beslutninger i organisationen?

For os kommunikationsfolk er etik særligt vigtigt. AI kan påvirke alt fra budskaber og formuleringer til vinkler og research. Derfor bør du altid:

  • bruge AI som hjælp, ikke som endelig autoritet
  • faktatjekke svar og være opmærksom på bias
  • undgå at give AI følsomme data i usikre miljøer
  • arbejde efter interne retningslinjer for ansvarlig brug
  • vurdere, hvornår AI skaber værdi – og hvornår den ikke gør

Etik i forhold til kunstig intelligens handler i sidste ende om at sikre, at teknologien bruges professionelt og med omtanke, så både organisation og modtagere kan stole på resultatet.

Læs mere
Wikipedia – Ethics of artificial intelligence (på engelsk

F

Faktatjek i AI handler om at vurdere, om svar fra værktøjer som ChatGPT, Gemini eller Claude er korrekte. Sprogmodeller arbejder ud fra mønstre i data og kan derfor give svar, der lyder overbevisende, men som ikke nødvendigvis er rigtige. De opstiller ofte sandsynlige forklaringer snarere end verificerede fakta.

Det gør faktatjek til en vigtig del af arbejdet, især når man bruger AI i kommunikation, hvor præcision og troværdighed er afgørende.

I praksis bør du altid:

  • tjekke vigtige oplysninger mod eksterne kilder
  • bede AI’en om at vise kilder, hvis værktøjet understøtter det (fx Perplexity)
  • stille opfølgende spørgsmål for at krydstjekke påstande
  • være opmærksom på årstal, tal og citater, som modeller ofte tager fejl af
  • undgå at stole på AI ved juridiske, sundhedsmæssige eller politiske detaljer
  • bruge AI som udgangspunkt for research, ikke som slutkilde

 

Ifølge udviklerne af mange AI-modeller er fejl en naturlig del af teknologien, fordi modellerne ikke “ved” noget, men beregner sandsynligheder. Derfor bør faktatjek være en fast del af enhver AI-baseret arbejdsgang.

Læs mere
Wikipedia – Hallucination (artificial intelligence) (på engelsk)

G

En Gem-bot er en skræddersyet udgave af Gemini, hvor du definerer, hvordan modellen skal opføre sig. Du giver den faste instruktioner, beskriver tone og tilgang og kan uploade baggrundsviden, så den løser bestemte opgaver mere præcist end den almindelige Gemini.

Gems fungerer på samme måde som Custom GPT’er i ChatGPT. Forskellen ligger i platformen og de underliggende modeller.

I kommunikationsarbejde kan Gems bruges til de samme faste opgaver som Custom GPT’er: udkast til nyhedsbreve, opslag, opsummeringer, research og andre gentagne tekstopgaver.

Eksempel
En kommunikationsmedarbejder laver en Gem til LinkedIn-opslag. Den får faste instruktioner om længde, tone og format – og eksempler på tidligere opslag, der har klaret sig godt. Når medarbejderen fodrer den med et budskab eller en artikel, skriver Gem’en et udkast, der følger de samme retningslinjer hver gang.

Gems kræver et betalt abonnement på Gemini Advanced. De kan ikke deles med kolleger på samme måde som Custom GPT’er i ChatGPT Team.

Læs mere:
Google – Gems

Gemini er Googles store sprogmodel og direkte konkurrent til ChatGPT. Modellen bruger generativ kunstig intelligens til at forstå og producere tekst, billeder og andre typer indhold. Den findes i flere versioner med forskellige styrker, fra hurtige hverdagsmodeller til de mest avancerede, der løser komplekse opgaver.

Gemini indgår i værktøjer som Google Workspace, hvor den hjælper med alt fra formuleringer og opsummeringer til analyser og udkast. Den fungerer på samme måde som ChatGPT: du giver en instruktion, og modellen svarer ud fra mønstre i sine træningsdata.

Gemini har også en række specialfunktioner, blandt andet:

  • Gemini Nano – en mindre model, der kører direkte på mobilen og løser opgaver lokalt.
  • Gemini Nano Banana – en nyere udgave, der bl.a. genererer billeder og mockups ud fra en kort tekstbeskrivelse. Den bruges især til at skabe små illustrationer eller visualiseringer uden eksterne værktøjer.
  • Gemini Advanced – den mest avancerede model, som håndterer komplekse tekster, lange dokumenter og detaljerede opgaver.

 

Gemini i Android og Chrome – integreret i styresystemet, så man kan bruge modellen direkte i apps og browseren.

Google stiller også Gemini til rådighed for udviklere, hvilket betyder, at modellen indgår i en lang række tredjepartstjenester.

Læs mere
Geminis hjemmeside
Wikipedia – Gemini (chatbot)

Generativ kunstig intelligens beskriver teknologier, der kan skabe nyt indhold. Det kan være tekst, billeder, lyd eller video, som ikke findes i forvejen, men som bliver genereret ud fra de mønstre, modellen har lært af sine træningsdata.

Det er denne type teknologi, der ligger bag værktøjer som ChatGPT, Gemini, Claude, DALL·E og Sora. De kan skrive artikler, foreslå formuleringer, skabe grafikker eller generere små filmsekvenser ud fra en kort instruktion.

Generativ kunstig intelligens adskiller sig fra klassiske AI-systemer, der primært analyserer eller kategoriserer data. Her skaber modellen selv nyt materiale, som kommunikationsfolk kan bruge som inspiration eller første udkast.

Læs mere
Wikipedia – Generativ kunstig intelligens

GPT er en serie af store sprogmodeller udviklet af OpenAI. Navnet står for Generative Pre-trained Transformer.

Modellen er trænet på store mængder tekst og bruger millioner eller milliarder af små vægte, også kaldet parametre, til at vurdere sproglige sammenhænge. Det er disse parametre, der gør modellen i stand til at skrive sammenhængende tekst, forstå kontekst og løse komplekse sproglige opgaver.

GPT fungerer som motoren bag ChatGPT og bruges også i mange andre værktøjer og tjenester via OpenAIs API. ChatGPT er altså brugergrænsefladen, mens GPT er selve teknologien, der genererer svarene.

GPT er én bestemt type stor sprogmodel og dermed et eksempel på en LLM (Large Language Model). LLM beskriver kategorien, mens GPT er en konkret modelserie inden for denne kategori.

Læs mere
Wikipedia – Generative pre-trained transformer (på engelsk)

Grok er en sprogmodel (LLM) og AI-assistent udviklet af Elon Musks virksomhed xAI. Den fungerer som et alternativ til værktøjer som ChatGPT, Gemini og Claude, men den har en mere direkte og humoristisk tone.

Grok er trænet til at være mindre tilbageholdende, og du får derfor ofte svar, der er mere kantede og uformelle end i traditionelle modeller.

Grok er tæt integreret i platformen X (tidligere Twitter). Modellen kan bruge løbende opdateringer fra platformen, så du får svar, der følger aktuelle begivenheder og trends. Det gør Grok velegnet til spørgsmål, der kræver viden om, hvad der sker lige nu.

Modellen findes i flere versioner, blandt andet Grok 1.5 og nyere udgaver, og du kan bruge den både i X-appen, som selvstændigt værktøj og via API.

Datasikkerhed

Grok følger datapraksis fra X-platformen. Det betyder, at oplysninger, du indtaster, behandles efter X’s politikker, som ikke har samme datasikkerhedsniveau som fx ChatGPT Team eller Enterprise. Hvis du arbejder professionelt med kommunikation, bør du undgå at dele interne dokumenter, persondata eller følsomme oplysninger i Grok.

Læs mere
Groks egen hjemmeside
Wikipedia – Grok

H

Hallucinationer er betegnelsen for de situationer, hvor en sprogmodel (LLM) giver et svar, der lyder korrekt, men som er faktuelt forkert. Modellen “finder på” information, fordi den arbejder ud fra sandsynligheder og mønstre i tekst – ikke ud fra verificeret viden.

Hallucinationer kan være små fejl, som et forkert årstal eller en opdigtet titel, men de kan også være mere alvorlige, som falske citater, forkerte fakta eller opdigtede kilder. Det sker i alle sprogmodeller, uanset om man bruger ChatGPT, Gemini, Claude eller andre tjenester.

I kommunikationsarbejde er hallucinationer især relevante, fordi de kan skabe fejl i:

  • artikler og nyhedsbreve
  • research og baggrundsmateriale
  • opsummeringer af længere dokumenter
  • citater og tal
  • analyser og vurderinger

 

Derfor bør man altid faktatjekke AI-svar, især når informationen er vigtig eller skal bruges eksternt. Værktøjer som Perplexity mindsker risikoen, fordi de viser kilder, men hallucinationer kan stadig opstå.

Hallucinationer er ikke et tegn på, at modellen “lyver” – men et grundvilkår ved teknologi, der beregner det mest sandsynlige svar.

Læs mere
Wikipedia – Hallucination (artificial intelligence) (på engelsk)

I

Iterationer er processen med at arbejde i flere versioner sammen med en AI-model.

I stedet for at forvente, at ChatGPT eller et andet værktøj rammer rigtigt i første forsøg, forbedrer man teksten i små trin: man beder om justeringer, ændrer tone, tilføjer input og retter løbende til.

Iterationer gør samarbejdet med AI langt bedre, fordi modellen bliver mere præcis, jo tydeligere man bliver undervejs.

Det minder om at arbejde med en kollega: første udkast sætter retningen, og de næste versioner finpudser indholdet.

I kommunikationsarbejde er iterationer særligt nyttige, når man arbejder med:

  • artikler og nyhedsbreve
  • tone-tilpasning
  • omskrivninger
  • strategiske oplæg
  • komplekse budskaber, der kræver flere forsøg

 

Nøglen til gode iterationer er at give konkret feedback: hvad skal ændres, skæres væk, tilføjes eller skærpes.

Iterationer viser, at AI ikke er en “engangsgenerator”, men et arbejdsredskab, der bliver bedst brugt som en del af en proces.

Læs mere
Wikipedia – Iterative design (på engelsk)

K

Kunstig intelligens dækker over teknologier, der tager fat på opgaver, som normalt kræver menneskelig tænkning. Det kan handle om at forstå sprog, analysere store datamængder eller genkende mønstre i billeder og lyd.

Modellerne bag kunstig intelligens er trænet på store mængder data og arbejder ved at beregne sandsynligheder: Hvilket ord passer bedst i en sætning. Hvilket billede ligner motivet mest. Hvilket svar matcher spørgsmålet. De tænker ikke som mennesker, men reagerer på mønstre i data.

I praksis møder man kunstig intelligens i chatassistenter, billedværktøjer, beslutningsstøtte, automatisering og værktøjer til tekstproduktion. 

Mange omtaler det i daglig tale som AI (Artificial Intelligence).

Læs mere
Wikipedia: Kunstig intelligens

L

Le Chat er en AI-chatassistent udviklet af firmaet Mistral, som står bag flere stærke open-source sprogmodeller. Tjenesten fungerer som et alternativ til ChatGPT og Gemini, men bygger på Mistrals egne modeller, som ofte er hurtige, lette og designet til at være mere åbne og gennemsigtige end mange kommercielle modeller.

Le Chat bruges på samme måde som andre AI-assistenter: du skriver en prompt, og modellen svarer med tekst, analyser, idéer eller forklaringer. Den kan også håndtere kode, udtrække information fra tekst, omskrive indhold og hjælpe med research.

For kommunikationsfolk kan Le Chat være relevant, hvis man:

  • vil arbejde med en europæisk udviklet model
  • foretrækker en lettere og mere “åben” modelarkitektur
  • har brug for hurtige svar og lav latenstid
  • vil teste forskelle mellem GPT, Claude, Gemini og Mistral-modellerne
  • ønsker at bygge egne AI-løsninger baseret på open-source teknologi

Le Chat tilbyder en brugerflade, der ligner ChatGPT, men med Mistrals modeller som motor. Tjenesten er især populær blandt udviklere og organisationer, der ønsker mere kontrol over deres AI-infrastruktur.

Læs mere
Le Chats egen hjemmeside
Wikipedia – Mistral AI (på engelsk)

En LLM er en stor sprogmodel, der er trænet på enorme mængder tekst. Modellen består af millioner eller milliarder af små vægte, også kaldet parametre. Parametrene fungerer som justeringer, der afgør, hvordan modellen vurderer sproglige mønstre: hvilke ord der hænger sammen, hvilken tone en tekst har, og hvordan et svar bør bygges op.

Jo flere parametre en model har, desto mere detaljeret kan den forstå sammenhænge i sproget. Det er derfor LLM’er kan skrive lange, sammenhængende tekster, bearbejde komplekse spørgsmål og holde styr på konteksten i en samtale.

LLM’er ligger bag værktøjer som ChatGPT, Gemini og Claude.

På dansk omtaler nogle dem som store sprogmodeller, som er den direkte oversættelse af begrebet.

Læs mere
Wikipedia – Stor sprogmodel

M

Maskinlæring er en metode inden for kunstig intelligens, hvor systemer lærer mønstre ud fra data i stedet for at følge faste trin. Computeren bliver ikke programmeret til hver enkelt handling, men arbejder ud fra eksempler og erfaring. Jo mere data, desto bedre lærer modellen sammenhængene.

Maskinlæring ligger til grund for mange af de værktøjer, kommunikationsfolk bruger i dag. Det gælder sprogmodeller, billedgenkendelse og systemer, der forudsiger, hvad brugerne er mest tilbøjelige til at engagere sig i.

Maskinlæring er især synlig på sociale medier. Her analyserer systemerne, hvilke opslag brugerne stopper op ved, liker eller deler. På den baggrund forudsiger de, hvilke typer indhold brugerne sandsynligvis vil bruge tid på næste gang.

Forskel på algoritme og maskinlæring
En algoritme følger en fast opskrift. Maskinlæring lærer mønstre ud fra data og tilpasser sig over tid.

Læs mere
Wikipedia – Maskinlæring

En masterprompt er et samlet sæt instruktioner, der fortæller ChatGPT (eller andre værktøjer), hvem du er, hvordan du arbejder, og hvilken tone og form du foretrækker. Den fungerer som en ramme, der holder styr på stil, målgrupper og formater, så du får mere præcise og konsistente svar.

Fordelen er, at du slipper for at gentage dig selv. Modellen forstår dig fra start, du får bedre svar i første forsøg, og jo mere kontekst du giver, jo mere præcist svarer den.

Du bruger en masterprompt ved at gemme den som en PDF eller tekstfil og vedlægge den, når du arbejder i ChatGPT.

Jeg har skrevet en uddybende artikel om masterprompter, som går mere i dybden. Du kan læse den her:

Sådan laver du dit eget masterprompt

N

NotebookLM er et værktøj fra Google, der bruger generativ kunstig intelligens til at arbejde med dine egne kilder. Du uploader dokumenter, artikler, noter eller research, og NotebookLM bygger en personlig model oven på materialet. Den kan derefter forklare, opsummere, lave udkast, finde forbindelser og svare på spørgsmål — udelukkende baseret på dine egne filer.

NotebookLM er især nyttig i længere kommunikationsopgaver, hvor man skal holde styr på store mængder indhold. I stedet for at søge manuelt i dokumenter, kan du spørge NotebookLM direkte, og den svarer med citater og kildehenvisninger.

I kommunikationsarbejde bruges NotebookLM blandt andet til:

  • at udarbejde baggrundsnoter og overblik over store dokumenter
  • at skrive udkast til artikler eller rapporter baseret på egne kilder
  • at finde centrale pointer i lange interviews eller transskriptioner
  • at lave researchdokumenter, hvor alle kilder er samlet ét sted
  • at arbejde med store vidensbaser i organisationer

 

NotebookLM fungerer dermed som en personlig “AI-researcher”, der kun arbejder med det materiale, du selv har lagt ind.

Læs mere
NotebookLMs egen hjemmeside
Wikipedia – NotebookLM

O

OpenAI er virksomheden, der står bag GPT-modellerne og værktøjer som ChatGPT, DALL·E og Sora. Organisationen blev stiftet i 2015 med et mål om at udvikle kunstig intelligens, der er sikker og kommer samfundet til gavn. I dag arbejder OpenAI både som forskningsinstitution og som udbyder af kommercielle AI-produkter.

OpenAI udvikler de sprogmodeller (LLM’er), som mange digitale værktøjer bygger på. GPT-modellerne er blandt de mest udbredte på verdensplan og bruges i alt fra kommunikationsopgaver og kundeservice til udvikling, analyse og kreativt arbejde. ChatGPT er virksomhedens egen brugerflade, mens GPT-modellerne også ligger bag en lang række apps og tjenester fra andre aktører.

OpenAI tilbyder både gratis brug, betalte abonnementer og virksomhedsrettede løsninger. Især ChatGPT Team og Enterprise bruges i professionelle miljøer, fordi de giver bedre datasikkerhed og kontrol over deling af materialer.

Læs mere
OpenAI’s hjemmeside
Wikipedia – OpenAI

P

Perplexity er et AI-baseret søgeværktøj, der kombinerer sprogmodeller (LLM’er) med internetkilder. I stedet for at give et generelt svar – som en klassisk sprogmodel – søger Perplexity på nettet, samler de mest relevante kilder og skriver et kort og brugbart svar med tydelige henvisninger.

Det gør Perplexity særligt velegnet til research, faktatjek og hurtige overblik. I modsætning til ChatGPT viser Perplexity altid, hvor informationerne kommer fra, og du kan åbne kilderne direkte.

I kommunikationsarbejde bruges Perplexity ofte til:

  • at undersøge et emne på få minutter
  • at få et hurtigt overblik før en længere analyse
  • at tjekke om fakta, tal eller udsagn holder
  • at finde nye vinkler eller baggrundsviden med kildehenvisninger

 

Perplexity kan bruges gratis, men der findes også en Pro-version med adgang til mere avancerede modeller, flere søgninger og dybere analyser.

Læs mere
Perplexitys egen hjemmeside

Et projekt i ChatGPT er et samlet arbejdsrum, hvor du organiserer alt, der hører til en bestemt opgave. I stedet for at have spredte chats og filer, samler et projekt dokumenter, noter, instruktioner og samtaler ét sted.

Et projekt fungerer som en mappe, hvor ChatGPT bruger indholdet som kontekst, når du arbejder videre. Det gør længere forløb lettere at styre, fordi modellen hele tiden kender formål, målgruppe og de vigtigste materialer.

I kommunikationsarbejde bruges projekter typisk til:

  • artikler og rapporter
  • kampagneplanlægning
  • research og baggrundsarbejde
  • manuskripter til podcast og video
  • nyhedsbreve, hvor man bygger videre på tidligere udkast

 

Forskel på projekt og Custom GPT

Et projekt samler alt, der hører til en konkret opgave. Det ændrer ikke, hvordan modellen skriver.

En Custom GPT er derimod en tilpasset udgave af selve modellen. Den har faste instruktioner, tone og baggrundsviden indbygget og opfører sig ens hver gang — uanset hvilket projekt den bruges i.

Kort sagt

  • Projekt: Et organiseret arbejdsrum.
  • Custom GPT: En skræddersyet måde at få modellen til at arbejde på.

 

Læs mere
Openai – Projects in ChatGPT

En prompt er den instruktion, du giver en sprogmodel. Det er teksten, der fortæller modellen, hvad du vil have, og hvordan svaret skal se ud. En prompt kan være en enkel sætning eller en mere detaljeret briefing.

Kvaliteten af svaret afhænger i høj grad af prompten. Jo tydeligere du beskriver formål, målgruppe, tone og format, desto mere præcist svar får du. En prompt fungerer derfor som det, der rammesætter opgaven – på samme måde som et kort oplæg til en kollega.

I kommunikationsarbejde bruger man prompts til alt fra udkast og omskrivninger til brainstorms, interviewguides og research. Det handler ikke om at skrive langt, men om at være så konkret som muligt.

Prompt engineering handler om at formulere gode og præcise instruktioner/prompts til en sprogmodel. Det er metoden til at beskrive opgaven, så modellen forstår kontekst, formål og tone – og dermed leverer et brugbart svar.

Det handler ikke om teknik, men om tydelighed. En god prompt forklarer, hvad der skal laves, til hvem, i hvilken stil og i hvilket format. Jo bedre prompten rammesætter opgaven, desto mindre efterredigering kræver svaret.

I kommunikationsarbejde bruger man prompt engineering til at skabe faste arbejdsgange: fx instruktioner til nyhedsbreve, LinkedIn-opslag, artikler, pressemeddelelser, personaer eller research. Mange vælger at samle de faste instruktioner i en master prompt, så modellen arbejder mere stabilt fra gang til gang.

Læs mere
Wikipedia – Prompt Engineering (på engelsk)

S

Sora er OpenAIs værktøj til at generere video ud fra tekstbeskrivelser eller referencebilleder. Du kan skrive, hvad du vil se – eller uploade et billede – og Sora skaber en videosekvens, der matcher motiv, stemning, bevægelse eller kameravinkel. Hvor DALL·E arbejder med billeder, arbejder Sora med levende billeder.

Sora gør det muligt at lave korte videoer uden kamera, optagelser eller redigering. Det bruges især til idéudvikling, visualiseringer, sceneforslag og konceptvideoer.

For kommunikationsfolk kan Sora bruges til:

  • hurtige visualiseringer i idéfasen
  • små teasere eller stemningsvideoer
  • at udvikle visuelle koncepter til kampagner
  • at afprøve udtryk ud fra et referencebillede

 

Læs mere
Soras egen hjemmeside
Wikipedia –  Sora (på engelsk)

En sprogmodel er en teknologi inden for kunstig intelligens, der er trænet til at forstå og producere tekst. Den arbejder ved at beregne, hvilket ord eller hvilken formulering der sandsynligvis kommer næste gang, baseret på mønstre i store mængder tekstdata.

Sprogmodeller ligger bag værktøjer som ChatGPT, Gemini og Claude. De bruges til at skrive tekster, omformulere budskaber, analysere indhold eller hjælpe med research. Modellen forstår ikke tekst som et menneske, men genkender statistiske sammenhænge og reagerer ud fra dem.

Sprogmodeller findes i mange størrelser. De mest avancerede kaldes LLM’er (Large Language Models). Det er store sprogmodeller, der er trænet på enorme datamængder og kan løse mere komplekse opgaver.

En stor sprogmodel er den danske betegnelse for en Large Language Model (LLM). Det er en sprogmodel, der er trænet på meget store mængder tekst og har et højt antal parametre, hvilket gør den i stand til at løse komplekse sproglige opgaver.

Læs mere i opslaget LLM (Large Language Model).

T

ChatGPT Team er en version af ChatGPT, der er udviklet til teams og organisationer. Den giver mulighed for at arbejde mere sikkert og samarbejde på tværs af kolleger uden at blande private og fælles projekter sammen.

I ChatGPT Team får I en fælles arbejdsflade, hvor I kan:

  • dele Custom GPT’er
  • dele projekter, filer og dokumenter
  • arbejde med fælles standarder og instruktioner
  • give alle adgang til de samme modeller og funktioner
  • styre rettigheder og datasikkerhed centralt

 

ChatGPT Team adskiller sig fra den almindelige version ved, at data fra teamet ikke bruges til at træne OpenAIs modeller. Det er derfor et bedre valg til professionelt kommunikationsarbejde, hvor man håndterer interne dokumenter, analyser, oplæg og procesmateriale.

For kommunikationsfolk giver Team-versionen især værdi, når man:

  • vil sikre ensartet tone, struktur og kvalitet i organisationens indhold
  • arbejder i fælles projekter med mange filer og baggrundsmaterialer
  • ønsker at dele Custom GPT’er, der repræsenterer organisatoriske standarder
  • vil give alle medarbejdere adgang til de samme AI-værktøjer uden at opbygge teknisk kompleksitet

 

Eksempel
En kommunikationsafdeling opretter en Custom GPT til nyhedsbreve og deler den i ChatGPT Team. Alle medarbejdere får adgang til samme tone, skabeloner og instruktioner, hvilket giver mere ensartede udsendelser og sparer tid på redigering.

En token er den måleenhed, som sprogmodeller bruger til at forstå og bearbejde tekst. I stedet for at læse hele ord ad gangen, opdeler modellen teksten i mindre bidder – ofte ordstammer, endelser eller tegn.

Ordet “kommunikationsfolk” bliver for eksempel delt op i flere tokens: “kommunikation”, “s” og “folk”. Et kort ord som “AI” tæller som én token, mens “kunstig intelligens” typisk bliver til tre-fire tokens. Tommelfingerreglen er, at 100 tokens svarer til cirka 75 danske ord.
Tokens er afgørende af to grunde:

  • De bestemmer, hvor meget du kan skrive i én samtale med en AI. Alle modeller har et loft for, hvor mange tokens de kan behandle ad gangen – det såkaldte context window. Overskrider du det, glemmer modellen det, du skrev først.

  • De bestemmer prisen. Betaler du for API-adgang til ChatGPT eller Claude, afregnes der efter antal tokens i både din prompt og AI’ens svar.

For kommunikationsfolk betyder det, at længere dokumenter og samtaler koster mere – og at meget lange prompts risikerer at blive afkortet, hvis de rammer loftet.

Læs mere:
OpenAI – What are tokens

Transformer er den grundlæggende teknologi bag mange moderne AI-værktøjer. Den blev beskrevet første gang i 2017 af forskere hos Google og er en af hovedårsagerne til, at systemer som ChatGPT og Gemini kan skrive og forstå sprog så overbevisende.

Før Transformer arbejdede computere med tekst trin for trin. De læste et ord ad gangen og havde svært ved at holde styr på meningen i lange sætninger. Vigtige informationer tidligt i teksten gik ofte tabt undervejs.

Transformer ændrede det ved at lade modellen se på hele sætningen på én gang og vurdere, hvilke ord der hænger sammen, og hvilke der betyder mest for meningen. Det gør det muligt at skelne mellem ord med flere betydninger og forstå sammenhængen i længere tekster.

I praksis er det derfor, moderne AI kan skrive mere flydende, oversætte mere præcist og svare mere relevant end ældre chatbots. Det er Transformer, der gør forskellen.

Turing-testen er en metode til at vurdere, om en maskine kan tænke. Den blev foreslået af den britiske matematiker Alan Turing i 1950 og bygger på en simpel idé: Hvis en maskine kan føre en samtale så overbevisende, at et menneske ikke kan skelne den fra et andet menneske, kan maskinen betragtes som intelligent.

Testen fungerer sådan: En dommer fører skriftlige samtaler med både et menneske og en maskine uden at vide, hvem der er hvem. Hvis dommeren ikke kan identificere maskinen, har maskinen bestået testen.

Turing-testen handler ikke om, hvorvidt maskinen rent faktisk tænker – den handler om, hvorvidt den kan ligne en, der gør. Det gør den til et funktionelt kriterium snarere end et filosofisk.

I dag er testen blevet aktualiseret af moderne sprogmodeller som ChatGPT og Claude. Disse systemer skriver så naturligt, at mange brugere oplever dem som menneskelige samtaler.

Men der er afgørende forskelle: Maskinerne forstår ikke kontekst på samme måde, de mangler erfaringer og bevidsthedsforankret forståelse, og de kan ikke tilpasse sig sociale nuancer på samme måde som mennesker.

Relateret indhold

AI for kommunikationsfolk

Få min gratis guide:
Bedre sprog med ChatGPT

Tilmeld dig mit nyhedsbrev og modtag guiden, der hjælper dig med at få ChatGPT til at skrive klart, enkelt og mere naturligt på dansk. 

I nyhedsbrevet får du korte tips om AI, praktiske eksempler og inspiration til, hvordan du kan bruge ChatGPT i dit kommunikationsarbejde.