AI-ordbog for kommunikationsfolk

AI-ordbog for kommunikationsfolk

Sådan bruger du AI-ordbogen

Denne AI-ordbog for kommunikationsfolk dækker de begreber, jeg oftest møder i mit arbejde med AI og kommunikation. Feltet udvikler sig hurtigt, og nye ord dukker op løbende.

Savner du et begreb, eller er der noget, der bør opdateres? Skriv til mig på per@psommer.dk.

A | B | C | D | E | F | G | H | I | J | K | L | M | N | O | P | Q | R | S | T | U | V | W | X | Y | Z | Æ | Ø | Å

A

AI er den engelske betegnelse for kunstig intelligens. Begrebet bruges ofte i daglig tale, men henviser til det samme som opslaget Kunstig intelligens længere nede på siden.

En AI-agent er et system, der ikke kun svarer på spørgsmål, men også udfører handlinger på dine vegne. 

Hvor en almindelig sprogmodel (LLM) skriver tekst ud fra dine instruktioner, kan en AI-agent selv planlægge næste skridt, hente information, udføre opgaver og reagere på ændringer i omgivelserne.

AI-agenter kombinerer flere teknologier: sprogmodeller, værktøjer, handlinger og nogle gange adgang til eksterne systemer. Det gør dem i stand til at løse opgaver mere selvstændigt og i længere sekvenser uden at du behøver styre hvert trin.

I kommunikationsarbejde kan AI-agenter for eksempel:

  • planlægge en indholdsplan ud fra data og tidligere opslag
  • hente statistik, bearbejde den og lave en rapport
  • overvåge bestemte kilder og sende et resumé, når noget ændrer sig
  • strukturere research og levere den i et samlet dokument

 

AI-agenter er et skridt videre end Custom GPT’er. Hvor Custom GPT’er følger dine faste instruktioner, er AI-agenter skabt til at handle og løse opgaven – ikke kun skrive tekst om den.

Læs mere
Wikipedia – Intelligent agent

AI-detektion er værktøjer, der forsøger at afgøre, om en tekst er skrevet af et menneske eller genereret af AI. Værktøjerne analyserer mønstre i sproget og vurderer sandsynligheden for, at indholdet kommer fra en sprogmodel.

Idéen lyder tillokkende – især for undervisere, redaktører og andre, der gerne vil vide, om en tekst er ægte. Men værktøjerne har store begrænsninger.

Problemerne med AI-detektion
Ingen af de nuværende værktøjer er pålidelige.

Selv OpenAI – virksomheden bag ChatGPT – udviklede et detektionsværktøj, men lukkede det igen på grund af dårlig præcision. Værktøjet identificerede kun 26% af AI-skrevet tekst korrekt, mens det fejlagtigt stemplede 9% af menneskeskrevet tekst som AI-genereret.

En forskningsartikel fra Weber-Wulff et al. (2023) fandt, at de fleste AI-detektorer scorede under 80% nøjagtighed, når de blev testet på forskellige teksttyper.

Stanford-forskere fandt, at over 61% af essays skrevet af personer med engelsk som andetsprog blev markeret som AI-genererede – selvom de var skrevet af mennesker.

Der findes også eksempler på, at detektionsværktøjer har vurderet den amerikanske forfatning som 100% AI-skrevet.

Hvad betyder det i praksis?
For kommunikationsfolk er budskabet klart: Brug ikke AI-detektion som bevis på noget. Et resultat kan give en indikation, men det er ikke pålideligt nok til at træffe beslutninger på.

Kendte værktøjer inkluderer GPTZero, Originality.ai og Turnitins AI-detektion.

Læs mere
The Imperfection of AI Detection Tools

En algoritme er en række faste trin, som en computer følger for at løse en opgave. Den fungerer som en opskrift: først sker det ene, derefter det næste, og til sidst giver systemet et resultat.

Algoritmer er centrale i kunstig intelligens, fordi de styrer, hvordan modeller lærer af data. De afgør, hvordan tekst bliver analyseret, hvordan mønstre bliver fundet, og hvordan et svar bliver beregnet. Uden algoritmer ingen kunstig intelligens — de er selve mekanikken bag teknologien.

Algoritmer er især kendt fra sociale medier. Her analyserer de, hvad brugere klikker på, hvor længe de ser et opslag, og hvilke emner de viser interesse for. På den baggrund beslutter algoritmen, hvilke opslag der skal vises først i feedet. Formålet er at holde brugeren engageret så længe som muligt.

Læs mere
Wikipedia – Algoritme

Anthropic er virksomheden bag Claude, en af de mest udbredte sprogmodeller på markedet. Firmaet blev grundlagt i 2021 af tidligere medarbejdere fra OpenAI og har hovedsæde i San Francisco.

Anthropic har fokus på at udvikle AI, der er sikker og forudsigelig. De arbejder ud fra en metode, de kalder konstitutionel AI, hvor modellen trænes efter et sæt faste principper og værdier. Tanken er, at modellen selv lærer at vurdere og justere sine svar, så de bliver mere stabile og mindre tilbøjelige til at give problematiske eller forkerte oplysninger.

For kommunikationsfolk betyder det, at Claude ofte leverer svar med en mere neutral og afbalanceret tone. Modellen er også kendt for at være stærk til længere, strukturerede opgaver og til arbejde med data og analyse.

Anthropic konkurrerer direkte med OpenAI og Google og betragtes som en af de førende aktører inden for udvikling af store sprogmodeller.

Ligesom OpenAI tilbyder Anthropic både gratis adgang, betalte abonnementer og virksomhedsløsninger med højere datasikkerhed.

Læs mere
Anthropic på Wikipedia
Anthropics hjemmeside

Apple Intelligence er Apples system til generativ kunstig intelligens, som er udviklet til at fungere direkte på deres egne enheder. Systemet kombinerer lokale beregninger på iPhone, iPad og Mac med udvalgt cloud-baseret AI, så opgaver kan løses både sikkert og hurtigt.

Apple Intelligence er integreret i styresystemerne iOS, iPadOS og macOS og fungerer som et lag, der skal forbedre brugerens daglige apps og arbejdsgange.

Systemet arbejder kontekstuelt – det forstår, hvad du laver i øjeblikket, og foreslår handlinger eller genererer indhold ud fra det.

For brugerne betyder det, at Apple-enheder kan:

  • skrive og forbedre tekst på tværs af apps
  • foreslå omskrivninger, korrektur og kortere versioner
  • analysere beskeder, mails og dokumenter lokalt
  • opsummere indhold
  • generere billeder gennem værktøjet Image Playground
  • tilpasse Siri, så assistenten bliver mere naturlig og kontekstforstået


En central del af Apple Intelligence er Private Cloud Compute, hvor mere komplekse opgaver sendes til Apple-styrede servere. Data gemmes ikke og bruges ikke til træning.

Apple Intelligence er i første omgang tilgængelig på nyere Apple-enheder med den nødvendige processorkraft (bl.a. iPhone med A17-chip og nyere Mac-modeller).

Læs mere
Wikipedia – Apple Intelligence (på engelsk)

B

Bias betyder skævhed i en AI-models svar. Det opstår, når modellen er trænet på data, der ikke er neutrale, eller hvor nogle perspektiver fylder mere end andre. Fordi modellen lærer af store tekstmængder fra internettet, kan den ubevidst gentage fordomme, stereotyper eller skævvridninger fra træningsdataene.

Bias kan komme til udtryk som:

  • kønsstereotyper (“lederen” bliver ofte skrevet som en mand)
  • kulturelle antagelser, der ikke passer i en dansk eller europæisk kontekst
  • sproglige skævheder, hvor modellen foretrækker bestemte udtryk
  • misrepræsentation af minoriteter
  • politiske vinkler, som ikke er neutrale.

 

I kommunikationsarbejde er bias særligt vigtigt at kende, fordi AI kan farve tone, eksempler eller konklusioner i en retning, der ikke passer til organisationens værdier.

Derfor er det en god idé altid at:

  • læse AI-udkast kritisk
  • tjekke om formuleringer eller eksempler virker skæve
  • være opmærksom på køn, kultur og stereotyper
  • justere prompten for at styre tonen (“skriv kønsneutralt”, “undgå stereotyper” osv.)

 

Bias er ikke noget, man kan undgå fuldstændigt, men noget man skal være bevidst om og rette i den endelige tekst.

Læs mere
Wikipedia – Algorithmic bias (på engelsk)

C

Canvas er et arbejdsområde i ChatGPT, hvor du kan skrive, redigere og udvikle indhold direkte i et dokument. I stedet for at arbejde i traditionelle chats, giver Canvas et større og mere roligt skrivefelt, hvor struktur og tekst står tydeligt.

Canvas er især nyttigt, når du arbejder med længere eller mere sammenhængende opgaver som artikler, nyhedsbreve, manuskripter og briefinger. Du kan skrive i dokumentet samtidig med, at ChatGPT kommer med forslag, omskrivninger eller nye afsnit. Canvas gør det derfor lettere at arbejde i iterationer og se ændringer i fuld kontekst.

I kommunikationsarbejde bruges Canvas typisk til:

  • udkast til artikler og rapporter
  • manuskripter til podcasts og videoer
  • nyhedsbreve, hvor man løbende finjusterer indhold
  • strukturering af kampagner, planer eller oplæg
  • dokumenter, hvor man ønsker et fuldt overblik frem for korte chatbeskeder

 

Canvas fungerer bedst sammen med projekter, fordi du kan samle filer, noter og tidligere udkast ét sted og derefter skrive den færdige tekst i Canvas.

Læs mere
Openai – Vi introducerer canvas

En chatbot er et program, der kan føre en samtale med et menneske. Du skriver en besked, og chatbotten svarer. Det kan ske på en hjemmeside, i en app eller i et chatvindue.

Chatbots har eksisteret længe før ChatGPT. De tidlige versioner var simple og fulgte faste regler: Hvis brugeren skrev A, svarede chatbotten B. De kunne besvare enkle spørgsmål om åbningstider eller hjælpe med at navigere på en hjemmeside, men de forstod ikke sproget – de matchede bare nøgleord med forudskrevne svar.

Moderne chatbots bygger på sprogmodeller og fungerer anderledes. De forstår sammenhængen i det, du skriver, og kan formulere svar, de ikke er programmeret til på forhånd. ChatGPT, Claude og Gemini er eksempler på denne type.

Forskellen på chatbot og ChatGPT
ChatGPT er en chatbot – men ikke alle chatbots er ChatGPT. Navnet ChatGPT betyder “Chat Generative Pre-trained Transformer”, hvor “Chat” netop henviser til, at det er en samtalegrænseflade.

Mange bruger ChatGPT som et synonym for AI-chatbots generelt, men det er en bestemt tjeneste fra OpenAI. Andre virksomheder har deres egne: Google har Gemini, Anthropic har Claude.

Læs mere
Chatbot på Wikipedia

ChatGPT er et værktøj, der bygger på store sprogmodeller (LLM) og bruger generativ kunstig intelligens til at forstå og producere tekst. Du skriver en instruktion, og modellen svarer med tekst, der matcher din hensigt og tone.

ChatGPT bruges i kommunikationsarbejde til at skrive udkast, forbedre formuleringer, omformulere budskaber, lave research, strukturere materiale og udvikle idéer. Det fungerer som en sparringspartner, der arbejder hurtigt og kan levere flere versioner af samme indhold.

ChatGPT findes både som gratis og betalt version. Den gratis udgave giver adgang til en ældre model, mens Plus-versionen giver adgang til de nyeste og mest præcise modeller samt funktioner som projekter og egne Custom GPT’er.

ChatGPT ejes og udvikles af virksomheden OpenAI, et forsknings- og udviklingsfirma med fokus på kunstig intelligens.

ChatGPT er produktnavnet. Det er ikke det samme som GPT-modellen, som er teknologien bag. ChatGPT er brugergrænsefladen, mens GPT er sprogmodellen, der genererer svarene.

Læs mere
ChatGPT’s hjemmeside
Wikipedia – ChatGPT

Claude er en LLM udviklet af virksomheden Anthropic. Den fungerer på samme måde som ChatGPT og Gemini og bruges til at skrive tekster, analysere indhold, opsummere dokumenter og løse komplekse sproglige opgaver.

Claude bygger på en metode, Anthropic kalder konstitutionel AI. Modellen er trænet efter et sæt faste principper og værdier, som fungerer som dens “grundlov”. I stedet for udelukkende at efterligne menneskelig adfærd vurderer og justerer modellen selv sine svar ud fra disse principper. Formålet er at skabe mere stabile og forudsigelige svar.

For kommunikationsfolk betyder det, at Claude ofte leverer:

  • mere konsistente og neutrale formuleringer
  • lavere risiko for, at modellen finder på fakta
  • en mere afbalanceret tone
  • bedre kvalitet i længere, strukturerede tekster

 

Til gengæld er Claude efter min erfaring ikke helt så stærk på dansk som ChatGPT. Jeg bruger den derfor primært til opgaver, hvor præcision og struktur er vigtigere end tone. Claude er blandt andet meget stærk til at arbejde med data. Jeg har brugt den til at opbygge dashboards over udviklingen i abonnenter på nyhedsbreve, og den løser den type opgaver meget præcist.

Læs mere
Claudes egen hjemmeside
Wikipedia – Claude.ai

Copilot er Microsofts AI-assistent, som er integreret i Office-værktøjerne og Windows. Den bygger på store sprogmodeller og hjælper med at skrive, analysere og strukturere indhold direkte i programmer som Word, Outlook, PowerPoint, Excel og Teams.

Copilot fungerer som en indbygget hjælper, der kan:

  • skrive udkast til mails, dokumenter og præsentationer
  • opsummere møder og chatbeskeder
  • lave analyser i Excel med almindelige sætninger
  • foreslå forbedringer til tekster
  • skabe visuelle slides ud fra stikord
  • finde information i filer, du allerede arbejder med

 

Copilot er udviklet til at gøre daglige opgaver hurtigere og mere strukturerede – især i store organisationer, hvor mange arbejder i de samme Office-værktøjer. Fordi Copilot er integreret direkte i systemet, bruger den data fra dokumenter, mails og møder på en måde, der passer til arbejdsflowet i Microsoft 365.

Der findes også Copilot Pro til privatpersoner og Copilot for Microsoft 365 til virksomheder, som giver adgang til flere funktioner og bedre datasikkerhed.

Læs mere
Copilots egen hjemmeside
Wikipedia – Microsoft Copilot (på engelsk)

En Custom GPT er en skræddersyet udgave af ChatGPT, hvor du bestemmer, hvordan modellen skal arbejde. Du kan give den faste instruktioner, vælge tone og stil og tilføje baggrundsviden, så den løser en bestemt type opgave mere stabilt end den almindelige ChatGPT.

I kommunikationsarbejde bruges Custom GPT’er til faste opgaver som nyhedsbreve, artikler, opslag, opsummeringer og research.

Kort eksempel
En kommunikationsafdeling laver en Custom GPT til nyhedsbreve. Den får afdelingens tone, eksempler på tidligere udsendelser og en fast struktur med længde, mellemoverskrifter og CTA. Når en medarbejder uploader stikord og budskaber, skriver Custom GPT’en et udkast, der rammer formen med det samme. Det giver mere ensartet kvalitet og mindre tid på redigering.

Hvis man bruger Team-versionen af ChatGPT, kan Custom GPT’er deles med kolleger, så hele afdelingen arbejder ud fra de samme standarder og instruktioner.

Læs mere
OpenAI – Introducing GPTs

D

DALL·E er OpenAIs værktøj til at generere billeder ud fra tekstbeskrivelser eller referencebilleder. Du skriver, hvad du vil have — en scene, en stil, et motiv eller en stemning — og DALL·E skaber et billede, der matcher dine instruktioner.

DALL·E bruges til alt fra idéskitser og skabeloner til færdige illustrationer. Det er særligt nyttigt i kreativitetsfaser, hvor man hurtigt vil undersøge flere visuelle retninger uden at tegne eller fotografere selv.

For kommunikationsfolk kan DALL·E bruges til:

  • visualiseringer i tidlige konceptfaser
  • mockups til sociale medier og præsentationer
  • illustrationer til artikler og rapporter
  • at afprøve farver, kompositioner og stilarter
  • referencebilleder, der senere kan bruges i Sora

 

DALL·E arbejder med stillbilleder, mens Sora arbejder med levende billeder. Mange bruger derfor DALL·E til at udvikle eller afklare det visuelle udtryk, før de går videre til video i Sora

Læs mere
DALL-E’s egen hjemmeside
Wikipedia – DALL-E (på engelsk)

Datasikkerhed i ChatGPT handler om, hvordan dine oplysninger og dokumenter bliver behandlet, når du arbejder i tjenesten. Det er vigtigt for os kommunikationsfolk, der ofte håndterer interne dokumenter, analyser, notater og personoplysninger.

Når du bruger den almindelige gratis version af ChatGPT, kan dine inputs indgå i OpenAIs fremtidige træning af modeller, med mindre du aktivt slår det fra. Derfor bør man undgå at dele fortrolige dokumenter, persondata eller interne oplysninger i gratisversionen.

Med ChatGPT Plus bliver dine data ikke brugt til at træne modellerne, men det er stadig en privat brugerkonto, som ikke er egnet til følsomt arbejdsrelateret materiale.

ChatGPT Team og Enterprise giver den højeste grad af datasikkerhed. Her bliver dine data ikke brugt til træning, og organisationen får kontrol over adgang, deling og datalagring. Det er den mest ansvarlige løsning til professionel kommunikation

Datasikkerhed i Gemini, Claude og andre AI-værktøjer

De fleste AI-tjenester følger samme grundlæggende princip: gratis versioner bruger ofte inputs til modeltræning, mens betalte eller virksomhedsrettede versioner tilbyder højere datasikkerhed.

Gemini: I gratisversionen kan inputs bruges til træning, mens business- og enterprise-versioner tilbyder øget kontrol og begrænser datadeling.

Claude: Anthropic bruger inputs fra gratisversionen til træning, men betalende kunder (Claude Pro og Team) kan slå træning fra og arbejde mere sikkert.

Perplexity og andre tjenester: Gratis brug medfører typisk datalagring til forbedring af systemet, mens betalte versioner giver bedre databeskyttelse.

Praktisk tommelfingerregel
Hvis du arbejder med materiale, der ikke bør forlade organisationen, så brug altid en version målrettet virksomheder – uanset platform.

En deepfake er en video eller lydoptagelse, hvor en persons ansigt, stemme eller bevægelser er blevet udskiftet eller manipuleret med kunstig intelligens.

Resultatet kan ligne en ægte optagelse så meget, at det er svært at se forskel.

Deepfakes opstår, når en AI-model trænes på mange billeder eller lydklip af en bestemt person. Modellen lærer ansigtstræk, mimik, stemmeleje og talemønstre og kan derefter skabe nyt materiale, hvor personen tilsyneladende siger eller gør noget, de aldrig har sagt eller gjort.

Teknologien bruges både kreativt og problematisk:

  • filmproduktion, hvor skuespillere kan “genoplives” eller forynges
  • satire og parodi
  • svindel og identitetstyveri
  • misinformation og politisk manipulation
  • chikane og falske kompromitterende videoer

For kommunikationsfolk er deepfakes særligt relevante, fordi de udfordrer troværdighed og kildekritik. Videoer og lydklip, der tidligere blev betragtet som dokumentation, kan nu være konstruerede. Det stiller nye krav til verifikation og til den måde, organisationer kommunikerer om ægthed.

Deepfakes kan også ramme organisationer direkte – fx gennem falske videoer af ledere eller manipulerede udtalelser, der spredes på sociale medier.

Læs mere
Deepfake på Wikipedia

DeepSeek er en kinesisk udviklet sprogmodel, der fungerer som et alternativ til ChatGPT, Gemini og Claude.

Modellen fik stor international opmærksomhed, fordi den leverede stærke resultater, selv om den blev udviklet for langt færre penge end vestlige modeller.

DeepSeek er særligt kendt for tre ting:

1. Meget lave udviklingsomkostninger
Modellen blev udviklet og trænet betydeligt billigere end GPT-4 og andre store modeller. DeepSeek-teamet optimerede både modelarkitektur, datasæt og hardwareudnyttelse, hvilket gjorde det muligt at træne modellen med langt lavere omkostninger uden at gå på kompromis med kvaliteten.

2. Overraskende performance
På trods af sin lave træningspris klarede DeepSeek sig imponerende godt i benchmarks. Den leverede stærke resultater i matematik, kodning, dataanalyse og tekniske opgaver og matchede eller overgik vestlige modeller, der ellers kræver langt større datacentre og budgetter.

3. Fokus på effektivitet frem for størrelse
DeepSeek er bygget til at være hurtig, let og billig at køre. Den bruger mindre computerkraft end mange andre modeller, hvilket gør den mere tilgængelig for både udviklere og organisationer, der ønsker en effektiv AI-løsning.

Datasikkerhed og Kina

Der er international bekymring om datasikkerhed, når man bruger kinesisk AI-teknologi. Kinesiske love kan give staten adgang til data fra virksomheder med base i Kina, og flere eksperter anbefaler derfor forsigtighed. Du bør undgå at bruge DeepSeek til følsomme oplysninger, interne dokumenter eller persondata i professionelle sammenhænge.

Læs mere
DeepSeeks egen hjemmeside
Wikipedia – DeepSeek

E

Etik i forhold til kunstig intelligens handler om, hvordan det bruges på en ansvarlig måde. Når modeller kan skabe tekst, billeder og beslutningsgrundlag, påvirker de både mennesker, organisationer og den offentlige samtale. Etikken i AI handler derfor om at sikre, at teknologien bruges fair, gennemsigtigt og uden at skade nogen.

Centrale spørgsmål i AI-etik handler om:

  • transparens – gør man det tydeligt, hvornår indhold er AI-genereret?
  • ansvar – hvem tager ansvar, når AI giver forkerte svar eller skaber problemer?
  • datasikkerhed – hvordan behandles de oplysninger, man uploader?
  • bias – risikerer teknologien at forstærke stereotyper eller skævheder?
  • privatliv – bruger værktøjet inputs til træning, og hvordan beskyttes persondata?
  • påvirkning – hvordan påvirker AI tekster, tone og beslutninger i organisationen?

For os kommunikationsfolk er etik særligt vigtigt. AI kan påvirke alt fra budskaber og formuleringer til vinkler og research. Derfor bør du altid:

  • bruge AI som hjælp, ikke som endelig autoritet
  • faktatjekke svar og være opmærksom på bias
  • undgå at give AI følsomme data i usikre miljøer
  • arbejde efter interne retningslinjer for ansvarlig brug
  • vurdere, hvornår AI skaber værdi – og hvornår den ikke gør

Etik i forhold til kunstig intelligens handler i sidste ende om at sikre, at teknologien bruges professionelt og med omtanke, så både organisation og modtagere kan stole på resultatet.

Læs mere
Wikipedia – Ethics of artificial intelligence (på engelsk

EU AI Act er verdens første samlede lov om kunstig intelligens. Loven blev vedtaget i 2024 og træder i kraft trinvis frem mod 2027, så organisationer får tid til at tilpasse sig. Formålet er at sikre, at AI‑systemer er gennemsigtige, pålidelige og under menneskelig kontrol.

For dig som kommunikatør betyder det, at din organisation skal være åben om, hvordan og hvorfor den bruger AI. Kravene handler om at beskytte modtageren mod vildledning og manipulation og om at sikre klar gennemsigtighed, når teknologien indgår i kommunikationen.

Tre ting du skal have styr på:

Deklarering
Du skal tydeligt oplyse, når modtageren interagerer med en AI‑chatbot eller modtager indhold, der er genereret eller manipuleret af AI, for eksempel billeder, lyd og deepfakes. Kravene bliver indfaset trinvis frem mod 2027, afhængigt af hvilken type AI‑system din organisation bruger.

AI‑kompetencer
Loven kræver, at organisationer sikrer et tilstrækkeligt niveau af AI‑forståelse hos de medarbejdere, der arbejder med teknologien – både internt personale og konsulenter, der bruger AI på jeres vegne. Du skal vide, hvordan værktøjerne fungerer, hvilke begrænsninger de har, og hvilke risici de kan indebære, for eksempel bias, fejl eller uønskede konsekvenser.

Dokumentation og valg af værktøjer
Du skal kunne redegøre for, hvilke AI‑tjenester din organisation bruger, og hvordan de håndterer ophavsret og persondata. Det betyder i praksis, at du skal vælge værktøjer, hvor udbyderen lever op til kravene om gennemsigtighed om træningsdata og har en klar politik for ophavsret.

Læs mere
AI Act

Euqai er en hollandsk chatbot med fokus på privatliv og europæisk suverænitet. Platformen kører udelukkende på servere i EU og er bygget til at overholde reglerne i GDPR og EU AI Act. Modsat mange amerikanske tjenester bruger Euqai bæredygtige datacentre, der genanvender energi.

For dig som kommunikatør sikrer Euqai dine data mod overvågning og deling med amerikanske teknologigiganter. Du kan bruge chatbotten direkte i din browser eller på det sociale medie Bluesky.

Eksempel
En kommunikationsmedarbejder skal skrive et udkast til en fortrolig strategi. Medarbejderen vælger Euqai fremfor ChatGPT, fordi data bliver inden for EU’s grænser og ikke bliver brugt til at træne modellerne. Medarbejderen får hjælp til strukturen og bevarer samtidig kontrollen over de følsomme oplysninger.

Da Euqai er baseret i Holland og følger europæiske regler, er det et stærkt alternativ, hvis du vil undgå amerikanske it-værktøjer.

Da teknologien er udviklet i Holland, er Euqia et stærkt alternativ, hvis du vil begrænse din brug af amerikanske værktøjer og støtte europæisk innovation.

Læs mere
AI uden USA: Alternativer til ChatGPT, Gemini og Copilot
Euqais hjemmeside

F

Faktatjek i AI handler om at vurdere, om svar fra værktøjer som ChatGPT, Gemini eller Claude er korrekte. Sprogmodeller arbejder ud fra mønstre i data og kan derfor give svar, der lyder overbevisende, men som ikke nødvendigvis er rigtige. De opstiller ofte sandsynlige forklaringer snarere end verificerede fakta.

Det gør faktatjek til en vigtig del af arbejdet, især når man bruger AI i kommunikation, hvor præcision og troværdighed er afgørende.

I praksis bør du altid:

  • tjekke vigtige oplysninger mod eksterne kilder
  • bede AI’en om at vise kilder, hvis værktøjet understøtter det (fx Perplexity)
  • stille opfølgende spørgsmål for at krydstjekke påstande
  • være opmærksom på årstal, tal og citater, som modeller ofte tager fejl af
  • undgå at stole på AI ved juridiske, sundhedsmæssige eller politiske detaljer
  • bruge AI som udgangspunkt for research, ikke som slutkilde

 

Ifølge udviklerne af mange AI-modeller er fejl en naturlig del af teknologien, fordi modellerne ikke “ved” noget, men beregner sandsynligheder. Derfor bør faktatjek være en fast del af enhver AI-baseret arbejdsgang.

Læs mere
Wikipedia – Hallucination (artificial intelligence) (på engelsk)

FLUX er en serie af AI-modeller, der omdanner tekst til billeder. Bag teknologien står det tyske firma Black Forest Labs. 

Modellen adskiller sig fra konkurrenter som Midjourney og DALL-E ved at være særligt præcis til at gengive læsbar tekst og komplekse instruktioner.

I din hverdag som kommunikatør løser FLUX to store problemer:

  • Tekst i billeder: Modellen skriver ord korrekt på skilte, plakater eller emballage, hvor andre modeller ofte fejler.
  • Realistisk fysik: Lys, skygger og detaljer som menneskehænder ser mere naturlige ud, hvilket reducerer det typiske AI-look.

 

Eksempel
En grafisk designer skal bruge et billede til en kampagne om bæredygtighed. Designeren har brug for et foto af en kaffekop, hvor der står “Genbrug mig” på siden. Med FLUX skriver AI’en teksten fejlfrit på koppens krumme overflade i den ønskede skrifttype. Designeren slipper for at bruge tid i Photoshop bagefter, fordi billedet er klar til brug med det samme.

Modellen findes i flere versioner til forskellige behov:

Pro: Den mest avancerede udgave til professionelt brug via betalte tjenester.

Dev: En åben model, som udviklere kan bygge videre på.

Schnell / Klein: Mindre og lynhurtige modeller, der kan generere billeder på få sekunder, selv på almindelige computere.

Den nyeste generation, FLUX.2 (januar 2026), gør det muligt at bevare de samme personer eller stilarter på tværs af flere billeder. Det er nyttigt, hvis du skal bruge den samme gennemgående karakter i en serie af opslag.

Da teknologien er udviklet i Tyskland, er FLUX et stærkt alternativ, hvis du vil begrænse din brug af amerikanske værktøjer og støtte europæisk innovation.

Læs mere
AI uden USA: Alternativer til ChatGPT, Gemini og Copilot
Black Forest Labs

G

En Gem-bot er en skræddersyet udgave af Gemini, hvor du definerer, hvordan modellen skal opføre sig. Du giver den faste instruktioner, beskriver tone og tilgang og kan uploade baggrundsviden, så den løser bestemte opgaver mere præcist end den almindelige Gemini.

Gems fungerer på samme måde som Custom GPT’er i ChatGPT. Forskellen ligger i platformen og de underliggende modeller.

I kommunikationsarbejde kan Gems bruges til de samme faste opgaver som Custom GPT’er: udkast til nyhedsbreve, opslag, opsummeringer, research og andre gentagne tekstopgaver.

Eksempel
En kommunikationsmedarbejder laver en Gem til LinkedIn-opslag. Den får faste instruktioner om længde, tone og format – og eksempler på tidligere opslag, der har klaret sig godt. Når medarbejderen fodrer den med et budskab eller en artikel, skriver Gem’en et udkast, der følger de samme retningslinjer hver gang.

Gems kræver et betalt abonnement på Gemini Advanced. De kan ikke deles med kolleger på samme måde som Custom GPT’er i ChatGPT Team.

Læs mere:
Google – Gems

Gemini er Googles store sprogmodel og direkte konkurrent til ChatGPT. Modellen bruger generativ kunstig intelligens til at forstå og producere tekst, billeder og andre typer indhold. Den findes i flere versioner med forskellige styrker, fra hurtige hverdagsmodeller til de mest avancerede, der løser komplekse opgaver.

Gemini indgår i værktøjer som Google Workspace, hvor den hjælper med alt fra formuleringer og opsummeringer til analyser og udkast. Den fungerer på samme måde som ChatGPT: du giver en instruktion, og modellen svarer ud fra mønstre i sine træningsdata.

Gemini har også en række specialfunktioner, blandt andet:

  • Gemini Nano – en mindre model, der kører direkte på mobilen og løser opgaver lokalt.
  • Gemini Nano Banana – en nyere udgave, der bl.a. genererer billeder og mockups ud fra en kort tekstbeskrivelse. Den bruges især til at skabe små illustrationer eller visualiseringer uden eksterne værktøjer.
  • Gemini Advanced – den mest avancerede model, som håndterer komplekse tekster, lange dokumenter og detaljerede opgaver.

 

Gemini i Android og Chrome – integreret i styresystemet, så man kan bruge modellen direkte i apps og browseren.

Google stiller også Gemini til rådighed for udviklere, hvilket betyder, at modellen indgår i en lang række tredjepartstjenester.

Læs mere
Geminis hjemmeside
Wikipedia – Gemini (chatbot)

Generativ kunstig intelligens beskriver teknologier, der kan skabe nyt indhold. Det kan være tekst, billeder, lyd eller video, som ikke findes i forvejen, men som bliver genereret ud fra de mønstre, modellen har lært af sine træningsdata.

Det er denne type teknologi, der ligger bag værktøjer som ChatGPT, Gemini, Claude, DALL·E og Sora. De kan skrive artikler, foreslå formuleringer, skabe grafikker eller generere små filmsekvenser ud fra en kort instruktion.

Generativ kunstig intelligens adskiller sig fra klassiske AI-systemer, der primært analyserer eller kategoriserer data. Her skaber modellen selv nyt materiale, som kommunikationsfolk kan bruge som inspiration eller første udkast.

Læs mere
Wikipedia – Generativ kunstig intelligens

GPT er en serie af store sprogmodeller udviklet af OpenAI. Navnet står for Generative Pre-trained Transformer.

Modellen er trænet på store mængder tekst og bruger millioner eller milliarder af små vægte, også kaldet parametre, til at vurdere sproglige sammenhænge. Det er disse parametre, der gør modellen i stand til at skrive sammenhængende tekst, forstå kontekst og løse komplekse sproglige opgaver.

GPT fungerer som motoren bag ChatGPT og bruges også i mange andre værktøjer og tjenester via OpenAIs API. ChatGPT er altså brugergrænsefladen, mens GPT er selve teknologien, der genererer svarene.

GPT er én bestemt type stor sprogmodel og dermed et eksempel på en LLM (Large Language Model). LLM beskriver kategorien, mens GPT er en konkret modelserie inden for denne kategori.

Læs mere
Wikipedia – Generative pre-trained transformer (på engelsk)

Grok er en sprogmodel (LLM) og AI-assistent udviklet af Elon Musks virksomhed xAI. Den fungerer som et alternativ til værktøjer som ChatGPT, Gemini og Claude, men den har en mere direkte og humoristisk tone.

Grok er trænet til at være mindre tilbageholdende, og du får derfor ofte svar, der er mere kantede og uformelle end i traditionelle modeller.

Grok er tæt integreret i platformen X (tidligere Twitter). Modellen kan bruge løbende opdateringer fra platformen, så du får svar, der følger aktuelle begivenheder og trends. Det gør Grok velegnet til spørgsmål, der kræver viden om, hvad der sker lige nu.

Modellen findes i flere versioner, blandt andet Grok 1.5 og nyere udgaver, og du kan bruge den både i X-appen, som selvstændigt værktøj og via API.

Datasikkerhed

Grok følger datapraksis fra X-platformen. Det betyder, at oplysninger, du indtaster, behandles efter X’s politikker, som ikke har samme datasikkerhedsniveau som fx ChatGPT Team eller Enterprise. Hvis du arbejder professionelt med kommunikation, bør du undgå at dele interne dokumenter, persondata eller følsomme oplysninger i Grok.

Læs mere
Groks egen hjemmeside
Wikipedia – Grok

H

Hallucinationer er, når en sprogmodel præsenterer oplysninger, der lyder overbevisende, men som er forkerte eller opdigtede.

Det sker ikke, fordi AI “vil snyde”, men fordi modellen mangler viden, kontekst eller præcise instruktioner. Den gør det, den er trænet til: fortsætter sprogligt på en måde, der virker sandsynlig.

En sprogmodel vurderer ikke sandhed. Den vurderer sandsynlighed i sprog.

Derfor kan du opleve:

  • kilder, der ikke findes
  • citater, ingen har sagt
  • tal, der ser præcise ud, men er forkerte
  • forklaringer, der hænger logisk sammen, men bygger på et forkert grundlag

 

Hallucinationer opstår især, når du beder AI om:

  • at finde fakta uden at give kilder
  • at udtale sig om noget meget nyt eller nichepræget
  • at udfylde huller i viden
  • at skrive autoritativt om noget, den ikke har data om

 

I kommunikationsarbejde er hallucinationer vigtige at forstå, fordi de ofte dukker op i:

  • research
  • faktatjek
  • kildehenvisninger
  • tal og dokumentation

 

Du reducerer risikoen for hallucinationer ved at:

  • give konkrete kilder, den må bruge
  • bede den markere usikkerhed
  • bede den stille spørgsmål, før den svarer
  • bruge AI som sparringspartner frem for som sandhedskilde

 

Hallucinationer forsvinder ikke. Men når du forstår mekanismen, kan du styre dem og arbejde sikkert med AI i praksis.

Læs mere
Wikipedia – Hallucination (artificial intelligence)
Hvorfor kan ChatGPT finde på at lyve?

I

Iterationer er processen med at arbejde i flere versioner sammen med en AI-model.

I stedet for at forvente, at ChatGPT eller et andet værktøj rammer rigtigt i første forsøg, forbedrer man teksten i små trin: man beder om justeringer, ændrer tone, tilføjer input og retter løbende til.

Iterationer gør samarbejdet med AI langt bedre, fordi modellen bliver mere præcis, jo tydeligere man bliver undervejs.

Det minder om at arbejde med en kollega: første udkast sætter retningen, og de næste versioner finpudser indholdet.

I kommunikationsarbejde er iterationer særligt nyttige, når man arbejder med:

  • artikler og nyhedsbreve
  • tone-tilpasning
  • omskrivninger
  • strategiske oplæg
  • komplekse budskaber, der kræver flere forsøg

 

Nøglen til gode iterationer er at give konkret feedback: hvad skal ændres, skæres væk, tilføjes eller skærpes.

Iterationer viser, at AI ikke er en “engangsgenerator”, men et arbejdsredskab, der bliver bedst brugt som en del af en proces.

Læs mere
Wikipedia – Iterative design (på engelsk)

K

Kontekst er den information, du giver AI-modellen, så den forstår, hvad du har brug for. Jo mere relevant kontekst du deler, jo bedre bliver svaret.

Kontekst kan være mange ting: hvem du er, hvad formålet er, hvem der skal læse teksten, hvilken tone du ønsker, eller hvilke materialer opgaven bygger på. Det kan også være tidligere dele af en samtale, som modellen bruger til at huske, hvad I allerede har talt om.

Et praktisk eksempel: Hvis du beder ChatGPT om at skrive en pressemeddelelse, får du et generisk svar. Beder du den i stedet om at skrive en pressemeddelelse til lokale medier om et nyt kulturhus på Møn, til en målgruppe af lokale borgere og turister, i en imødekommende tone, så har du givet kontekst, og resultatet bliver et andet.

Kontekst bliver særligt vigtigt, når du arbejder med længere opgaver eller gentagne opgavetyper. Her kan du samle din kontekst i et projekt eller en masterprompt, så du ikke skal forklare det samme fra bunden hver gang.

Kontekstvindue
Kontekstvinduet er den mængde information, modellen kan holde i arbejdshukommelsen på én gang.

Læs mere om kontekstvinduet nedenfor.

Kontekstvinduet er den mængde tekst, en AI-model kan have i spil på én gang.

Det omfatter alt: din besked, eventuelle dokumenter du har uploadet, hele den tidligere samtale og det svar, modellen er ved at skrive.

Tænk på det som en arbejdsflade med en fast størrelse. Når fladen er fuld, skubbes det ældste indhold ud. Det forklarer, hvorfor AI’en kan “glemme” noget, I talte om tidligere i samtalen – det er gledet ud af kontekstvinduet.

Kontekstvinduet måles i tokens. Forskellige modeller har forskellige størrelser. Nogle kan håndtere omkring 8.000 tokens, mens de nyeste modeller kan arbejde med over 100.000 tokens ad gangen.

Hvor store er kontekstvinduerne? (januar 2026)
Størrelsen varierer #gemini mellem modeller og ændrer sig løbende. Som tommelfingerregel gælder:

  • Gemini har det største kontekstvindue med op til 1 million tokens – svarende til omkring 1.500 sider tekst
  • ChatGPT ligger på cirka 128.000 tokens i de nyeste modeller
  • Claude håndterer omkring 200.000 tokens

 

I praksis rækker alle tre til langt de fleste opgaver. Det er sjældent, man reelt har brug for et kontekstvindue på 1 million tokens.

Til gengæld kan Gemini være et godt valg, hvis du arbejder med meget store dokumenter eller vil analysere mange filer på én gang.

Hvornår mærker du kontekstvinduet?

I kommunikationsarbejde mærker du kontekstvinduet, når du:

  • har en lang samtale, og modellen pludselig glemmer en vigtig instruktion fra starten
  • uploader et langt dokument, og modellen kun forholder sig til dele af det
  • beder modellen om at huske noget bestemt, men den mister det senere i samtalen

 

Du kan arbejde med begrænsningen ved at gentage vigtige instruktioner undervejs eller starte en ny samtale, når den gamle bliver for lang. I ChatGPT kan du også bruge projekter, hvor centrale dokumenter og instruktioner altid er tilgængelige, eller vedhæfte din masterprompt, så modellen kender din tone og dine præferencer fra start.

Læs mere
What Is an AI Context Window?

Kunstig intelligens dækker over teknologier, der tager fat på opgaver, som normalt kræver menneskelig tænkning. Det kan handle om at forstå sprog, analysere store datamængder eller genkende mønstre i billeder og lyd.

Modellerne bag kunstig intelligens er trænet på store mængder data og arbejder ved at beregne sandsynligheder: Hvilket ord passer bedst i en sætning. Hvilket billede ligner motivet mest. Hvilket svar matcher spørgsmålet. De tænker ikke som mennesker, men reagerer på mønstre i data.

I praksis møder man kunstig intelligens i chatassistenter, billedværktøjer, beslutningsstøtte, automatisering og værktøjer til tekstproduktion. 

Mange omtaler det i daglig tale som AI (Artificial Intelligence).

Læs mere
Wikipedia: Kunstig intelligens

L

Le Chat er en AI-chatassistent udviklet af firmaet Mistral, som står bag flere stærke open-source sprogmodeller. Tjenesten fungerer som et alternativ til ChatGPT og Gemini, men bygger på Mistrals egne modeller, som ofte er hurtige, lette og designet til at være mere åbne og gennemsigtige end mange kommercielle modeller.

Le Chat bruges på samme måde som andre AI-assistenter: du skriver en prompt, og modellen svarer med tekst, analyser, idéer eller forklaringer. Den kan også håndtere kode, udtrække information fra tekst, omskrive indhold og hjælpe med research.

For kommunikationsfolk kan Le Chat være relevant, hvis man:

  • vil arbejde med en europæisk udviklet model
  • foretrækker en lettere og mere “åben” modelarkitektur
  • har brug for hurtige svar og lav latenstid
  • vil teste forskelle mellem GPT, Claude, Gemini og Mistral-modellerne
  • ønsker at bygge egne AI-løsninger baseret på open-source teknologi


Le Chat tilbyder en brugerflade, der ligner ChatGPT, men med Mistrals modeller som motor. Tjenesten er især populær blandt udviklere og organisationer, der ønsker mere kontrol over deres AI-infrastruktur.

Læs mere
AI uden USA: Alternativer til ChatGPT, Gemini og Copilot
Le Chats egen hjemmeside
Wikipedia – Mistral AI (på engelsk)

Llama er navnet på en sprogmodel, som kan skrive og forstå tekst – ligesom ChatGPT.

Den er udviklet af Meta, virksomheden bag Facebook og Instagram.

Hvor ChatGPT er et færdigt værktøj, er Llama mere som et grundlag, andre kan bygge videre på. Mange AI-værktøjer bruger Llama i baggrunden uden at nævne det.

Hvad kan Llama bruges til

  • Llama bruges til de samme typer opgaver som andre sprogmodeller:
  • skrive og omskrive tekst
  • forkorte lange tekster
  • svare på spørgsmål
  • fungere som chatbot


Forskellen ligger ikke i, hvad den kan – men i hvordan den bruges.

Det særlige ved Llama

Llama er lavet, så den kan bruges og tilpasses af andre. Derfor findes den i versioner, som virksomheder og udviklere selv kan arbejde med, i stedet for at være låst til én bestemt tjeneste.

Det betyder, at Llama ofte indgår i:

  • interne AI-løsninger
  • mindre AI-værktøjer
  • eksperimenter og testmiljøer


Llama i hverdagen

Hvis du bruger et AI-værktøj, som ikke hedder ChatGPT, er der en reel chance for, at Llama er teknologien bag.

Læs mere
Llamas hjemmeside

En LLM er en stor sprogmodel, der er trænet på enorme mængder tekst. Modellen består af millioner eller milliarder af små vægte, også kaldet parametre. Parametrene fungerer som justeringer, der afgør, hvordan modellen vurderer sproglige mønstre: hvilke ord der hænger sammen, hvilken tone en tekst har, og hvordan et svar bør bygges op.

Jo flere parametre en model har, desto mere detaljeret kan den forstå sammenhænge i sproget. Det er derfor LLM’er kan skrive lange, sammenhængende tekster, bearbejde komplekse spørgsmål og holde styr på konteksten i en samtale.

LLM’er ligger bag værktøjer som ChatGPT, Gemini og Claude.

På dansk omtaler nogle dem som store sprogmodeller, som er den direkte oversættelse af begrebet.

Læs mere
Wikipedia – Stor sprogmodel

Lumo er en AI-assistent med fokus på privatliv, udviklet af det europæiske firma Proton.

Modsat assistenter fra de store amerikanske tech-virksomheder gemmer Lumo ikke dine samtaler og bruger dem ikke til at træne sine modeller. Dine chats er beskyttet med zero-access-kryptering, hvilket betyder, at kun du har adgang til indholdet.

Lumo bygger på open-source-modeller og kører på servere i Europa. Det giver dig mulighed for at bruge teknologien uden at sende følsom data til USA eller miste kontrollen over dine informationer.

Eksempel
Du arbejder som kommunikationskonsulent og skal analysere et internt strategipapir for en kunde. Du uploader dokumentet til Lumo for at få et hurtigt overblik over hovedpointerne. Fordi Lumo bruger kryptering og ikke fører logbøger, ved du, at de fortrolige oplysninger forbliver private. Du løser opgaven effektivt og overholder din tavshedspligt.

Lumo findes både som webudgave og app. Du kan bruge assistenten gratis uden en konto, men flere funktioner og mere kapacitet kræver et Plus-abonnement. Værktøjet kan også forbindes direkte til dine filer i Proton Drive.

Da teknologien er udviklet i Schweiz, er Lumo et stærkt alternativ, hvis du vil begrænse din brug af amerikanske værktøjer og støtte europæisk innovation.

Læs mere
AI uden USA: Alternativer til ChatGPT, Gemini og Copilot
Proton – Lumo AI

M

Maskinlæring er en metode inden for kunstig intelligens, hvor systemer lærer mønstre ud fra data i stedet for at følge faste trin. Computeren bliver ikke programmeret til hver enkelt handling, men arbejder ud fra eksempler og erfaring. Jo mere data, desto bedre lærer modellen sammenhængene.

Maskinlæring ligger til grund for mange af de værktøjer, kommunikationsfolk bruger i dag. Det gælder sprogmodeller, billedgenkendelse og systemer, der forudsiger, hvad brugerne er mest tilbøjelige til at engagere sig i.

Maskinlæring er især synlig på sociale medier. Her analyserer systemerne, hvilke opslag brugerne stopper op ved, liker eller deler. På den baggrund forudsiger de, hvilke typer indhold brugerne sandsynligvis vil bruge tid på næste gang.

Forskel på algoritme og maskinlæring
En algoritme følger en fast opskrift. Maskinlæring lærer mønstre ud fra data og tilpasser sig over tid.

Læs mere
Wikipedia – Maskinlæring

En masterprompt er et samlet sæt instruktioner, der fortæller ChatGPT (eller andre værktøjer), hvem du er, hvordan du arbejder, og hvilken tone og form du foretrækker. Den fungerer som en ramme, der holder styr på stil, målgrupper og formater, så du får mere præcise og konsistente svar.

Fordelen er, at du slipper for at gentage dig selv. Modellen forstår dig fra start, du får bedre svar i første forsøg, og jo mere kontekst du giver, jo mere præcist svarer den.

Du bruger en masterprompt ved at gemme den som en PDF eller tekstfil og vedlægge den, når du arbejder i ChatGPT.

Jeg har skrevet en uddybende artikel om masterprompter, som går mere i dybden. Du kan læse den her:

Sådan laver du dit eget masterprompt

Midjourney er et AI-værktøj, der genererer billeder ud fra tekstbeskrivelser. Du skriver, hvad du vil se – et motiv, en stemning, en stil – og Midjourney skaber et billede, der matcher din beskrivelse.

Midjourney er kendt for at levere billeder med en mere kunstnerisk og æstetisk kvalitet end mange andre billedgeneratorer.

Værktøjet er særligt stærkt til illustrationer, konceptbilleder og stemningsbilleder, mens det kan have sværere ved fotorealistiske billeder med tekst eller præcise detaljer.

For kommunikationsfolk kan Midjourney bruges til:

  • idéudvikling og moodboards i tidlige faser
  • illustrationer til artikler, præsentationer og sociale medier
  • visuelle koncepter til kampagner
  • billeder til nyhedsbreve og blogindlæg
  • at afprøve forskellige stilarter og udtryk hurtigt

Midjourney adskiller sig fra DALL·E ved ikke at have sin egen hjemmeside med en almindelig brugerflade. I stedet foregår alt i en chatbaseret app, hvor du skriver dine instruktioner som beskeder og får billederne leveret i samme tråd. Det kræver lidt tilvænning, men mange oplever, at de hurtigt får rutinen.

Værktøjet kræver et betalt abonnement og ejes af det amerikanske firma Midjourney Inc.

Læs mere
Midjourneys hjemmeside

Le Chat er kerneproduktet fra den franske virksomhed Mistral AI. Det er en chatbot, der fungerer på samme måde som ChatGPT, men som bygger på europæiske sprogmodeller. Mistral er stiftet i Paris af tidligere forskere fra Meta og Google DeepMind og er i dag Europas stærkeste svar på de amerikanske tech-giganter.

Mistral adskiller sig ved at prioritere åbenhed og effektivitet. De udgiver ofte deres modeller som “open-weight”, hvilket betyder, at virksomheder kan køre teknologien på deres egne servere. På den måde er du ikke afhængig af en lukket amerikansk cloud-tjeneste.

For dig som kommunikatør løser Mistral tre ting:

  • Datasikkerhed: Som europæisk virksomhed følger Mistral EU’s regler for databeskyttelse (GDPR).
  • Hastighed: Modellerne leverer hurtige svar uden at kræve enorme mængder computerkraft.
  • Privatliv: Du kan bruge Le Chat til dine tekstopgaver med visheden om, at data bliver i Europa.


Eksempel

En kommunikationsansvarlig skal have hjælp til at opsummere interne mødereferater med fortroligt indhold. I stedet for at sende oplysningerne til USA, bruger den ansatte Le Chat fra Mistral. Vedkommende får et præcist resumé, mens data forbliver beskyttet inden for EU’s grænser.

Mistral tilbyder forskellige modeller til forskellige behov:

  • Mistral Large: Deres mest avancerede model til komplekse opgaver og dyb logik.
  • Mistral 7B & Mixtral: Mindre og lynhurtige modeller til enklere tekstopgaver.
  • Codestral: En specialmodel bygget specifikt til at skrive og rette it-kode.

Da Mistral er fransk og satser på europæisk uafhængighed, er det et stærkt alternativ, hvis du vil undgå amerikanske it-værktøjer.

Læs mere
AI uden USA: Alternativer til ChatGPT, Gemini og Copilot
Mistrals hjemmeside

N

NotebookLM er et værktøj fra Google, der bruger generativ kunstig intelligens til at arbejde med dine egne kilder. Du uploader dokumenter, artikler, noter eller research, og NotebookLM bygger en personlig model oven på materialet. Den kan derefter forklare, opsummere, lave udkast, finde forbindelser og svare på spørgsmål — udelukkende baseret på dine egne filer.

NotebookLM er især nyttig i længere kommunikationsopgaver, hvor man skal holde styr på store mængder indhold. I stedet for at søge manuelt i dokumenter, kan du spørge NotebookLM direkte, og den svarer med citater og kildehenvisninger.

I kommunikationsarbejde bruges NotebookLM blandt andet til:

  • at udarbejde baggrundsnoter og overblik over store dokumenter
  • at skrive udkast til artikler eller rapporter baseret på egne kilder
  • at finde centrale pointer i lange interviews eller transskriptioner
  • at lave researchdokumenter, hvor alle kilder er samlet ét sted
  • at arbejde med store vidensbaser i organisationer

 

NotebookLM fungerer dermed som en personlig “AI-researcher”, der kun arbejder med det materiale, du selv har lagt ind.

Læs mere
NotebookLMs egen hjemmeside
Wikipedia – NotebookLM

O

OpenAI er virksomheden, der står bag GPT-modellerne og værktøjer som ChatGPT, DALL·E og Sora. Organisationen blev stiftet i 2015 med et mål om at udvikle kunstig intelligens, der er sikker og kommer samfundet til gavn. I dag arbejder OpenAI både som forskningsinstitution og som udbyder af kommercielle AI-produkter.

OpenAI udvikler de sprogmodeller (LLM’er), som mange digitale værktøjer bygger på. GPT-modellerne er blandt de mest udbredte på verdensplan og bruges i alt fra kommunikationsopgaver og kundeservice til udvikling, analyse og kreativt arbejde. ChatGPT er virksomhedens egen brugerflade, mens GPT-modellerne også ligger bag en lang række apps og tjenester fra andre aktører.

OpenAI tilbyder både gratis brug, betalte abonnementer og virksomhedsrettede løsninger. Især ChatGPT Team og Enterprise bruges i professionelle miljøer, fordi de giver bedre datasikkerhed og kontrol over deling af materialer.

Læs mere
OpenAI’s hjemmeside
Wikipedia – OpenAI

OpenClaw er en AI-assistent, der kører på din egen computer og udfører opgaver på dine vegne. Du skriver til den i almindeligt sprog via apps, du allerede bruger som WhatsApp, Telegram, Slack eller iMessage, og den sætter tingene i gang.

I modsætning til ChatGPT og lignende chatbots reagerer OpenClaw ikke bare på dine spørgsmål. Den handler selvstændigt. Du kan for eksempel skrive til den om morgenen: “Opsummer mine ulæste e-mails og book en tid i min kalender til det vigtigste.” Det gør den, uden at du åbner en browser eller et program.

 Hej, hej. Det var den egenskab, der fik projektet til at gå viralt i begyndelsen af 2026. Mange brugere beskrev det som et vendepunkt. Pludselig føltes AI ikke som et svarværktøj, men som en assistent der faktisk gør noget.
Projektet blev lanceret i november 2025 af den østrigske udvikler Peter Steinberger. I februar 2026 annoncerede OpenAI, at Steinberger ville indgå i virksomheden, og at OpenClaw fortsætter som open source-projekt.

Hvad er risikoen?
OpenClaw giver AI bred adgang til dine filer, e-mail og kalender. Det kræver teknisk opsætning, og det er ikke fejlfrit. Sikkerhedsforskere har advaret om, at forkert konfiguration kan åbne for misbrug, og at tilføjelser fra tredjepart ikke altid er gennemtjekket.

Det er med andre ord et kraftfuldt værktøj, der kræver, at du ved, hvad du sætter i gang.

Kort sagt
OpenClaw er et af de mest omtalte eksempler på agentic AI: AI der handler, ikke bare svarer.

Læs mere
Wikipedia – OpenClaw

P

Perplexity er et AI-baseret søgeværktøj, der kombinerer sprogmodeller (LLM’er) med internetkilder. I stedet for at give et generelt svar – som en klassisk sprogmodel – søger Perplexity på nettet, samler de mest relevante kilder og skriver et kort og brugbart svar med tydelige henvisninger.

Det gør Perplexity særligt velegnet til research, faktatjek og hurtige overblik. I modsætning til ChatGPT viser Perplexity altid, hvor informationerne kommer fra, og du kan åbne kilderne direkte.

I kommunikationsarbejde bruges Perplexity ofte til:

  • at undersøge et emne på få minutter
  • at få et hurtigt overblik før en længere analyse
  • at tjekke om fakta, tal eller udsagn holder
  • at finde nye vinkler eller baggrundsviden med kildehenvisninger

 

Perplexity kan bruges gratis, men der findes også en Pro-version med adgang til mere avancerede modeller, flere søgninger og dybere analyser.

Læs mere
Perplexitys egen hjemmeside

Et projekt i ChatGPT er et samlet arbejdsrum, hvor du organiserer alt, der hører til en bestemt opgave. I stedet for at have spredte chats og filer, samler et projekt dokumenter, noter, instruktioner og samtaler ét sted.

Et projekt fungerer som en mappe, hvor ChatGPT bruger indholdet som kontekst, når du arbejder videre. Det gør længere forløb lettere at styre, fordi modellen hele tiden kender formål, målgruppe og de vigtigste materialer.

I kommunikationsarbejde bruges projekter typisk til:

  • artikler og rapporter
  • kampagneplanlægning
  • research og baggrundsarbejde
  • manuskripter til podcast og video
  • nyhedsbreve, hvor man bygger videre på tidligere udkast

 

Forskel på projekt og Custom GPT

Et projekt samler alt, der hører til en konkret opgave. Det ændrer ikke, hvordan modellen skriver.

En Custom GPT er derimod en tilpasset udgave af selve modellen. Den har faste instruktioner, tone og baggrundsviden indbygget og opfører sig ens hver gang — uanset hvilket projekt den bruges i.

Kort sagt

  • Projekt: Et organiseret arbejdsrum.
  • Custom GPT: En skræddersyet måde at få modellen til at arbejde på.

 

Læs mere
Openai – Projects in ChatGPT

En prompt er den instruktion, du giver en sprogmodel. Det er teksten, der fortæller modellen, hvad du vil have, og hvordan svaret skal se ud. En prompt kan være en enkel sætning eller en mere detaljeret briefing.

Kvaliteten af svaret afhænger i høj grad af prompten. Jo tydeligere du beskriver formål, målgruppe, tone og format, desto mere præcist svar får du. En prompt fungerer derfor som det, der rammesætter opgaven – på samme måde som et kort oplæg til en kollega.

I kommunikationsarbejde bruger man prompts til alt fra udkast og omskrivninger til brainstorms, interviewguides og research. Det handler ikke om at skrive langt, men om at være så konkret som muligt.

Prompt engineering er arbejdet med at formulere instruktioner til en sprogmodel, så du får et brugbart, præcist og målrettet svar.

Det handler ikke om smarte tricks. Det handler om at give modellen den kontekst, rolle og opgave, den mangler.

Mange tror, at prompt engineering er at skrive lange, komplicerede prompts. I praksis handler det om at stille klare opgaver.

En god prompt indeholder typisk:

  • rolle: Hvem skal modellen være
  • kontekst: Hvad den skal vide for at løse opgaven
  • opgave: Hvad den konkret skal gøre
  • format: Hvordan svaret skal leveres

Når du arbejder med prompt engineering, stopper du med at skrive:

“Skriv noget om AI”

Og begynder at skrive:

“Du er kommunikationsrådgiver. Brug nedenstående tekst som kilde. Skriv en LinkedIn-tekst på maks. 120 ord i et konkret og uformelt sprog.”

I kommunikationsarbejde bruger du prompt engineering til at:

  • styre tone og stil
  • sikre korrekt brug af kilder
  • få strukturerede svar
  • reducere hallucinationer
  • gøre AI til en sparringspartner frem for en tekstgenerator


Prompt engineering er ikke en teknisk disciplin. Det er en kommunikationsdisciplin.

Læs mere
Wikipedia – Prompt engineering

S

Sora er OpenAIs værktøj til at generere video ud fra tekstbeskrivelser eller referencebilleder. Du kan skrive, hvad du vil se – eller uploade et billede – og Sora skaber en videosekvens, der matcher motiv, stemning, bevægelse eller kameravinkel. Hvor DALL·E arbejder med billeder, arbejder Sora med levende billeder.

Sora gør det muligt at lave korte videoer uden kamera, optagelser eller redigering. Det bruges især til idéudvikling, visualiseringer, sceneforslag og konceptvideoer.

For kommunikationsfolk kan Sora bruges til:

  • hurtige visualiseringer i idéfasen
  • små teasere eller stemningsvideoer
  • at udvikle visuelle koncepter til kampagner
  • at afprøve udtryk ud fra et referencebillede

 

Læs mere
Soras egen hjemmeside
Wikipedia –  Sora (på engelsk)

En sprogmodel er en teknologi inden for kunstig intelligens, der er trænet til at forstå og producere tekst. Den arbejder ved at beregne, hvilket ord eller hvilken formulering der sandsynligvis kommer næste gang, baseret på mønstre i store mængder tekstdata.

Sprogmodeller ligger bag værktøjer som ChatGPT, Gemini og Claude. De bruges til at skrive tekster, omformulere budskaber, analysere indhold eller hjælpe med research. Modellen forstår ikke tekst som et menneske, men genkender statistiske sammenhænge og reagerer ud fra dem.

Sprogmodeller findes i mange størrelser. De mest avancerede kaldes LLM’er (Large Language Models). Det er store sprogmodeller, der er trænet på enorme datamængder og kan løse mere komplekse opgaver.

Stemmekloning er AI-teknologi, der kan kopiere en persons stemme.

Du optager eller uploader en lydprøve, og værktøjet lærer at efterligne stemmen. Derefter kan du skrive en tekst, og AI’en læser den op med den klonede stemme.

Teknologien bruges både kreativt og problematisk.

Kreativ brug
For kommunikationsfolk åbner stemmekloning nye muligheder:

  • voiceovers til video uden at booke en studiespeaker
  • podcast-indslag, hvor en fast vært ikke er tilgængelig
  • lydbøger og oplæsning af artikler
  • flersprogede versioner af det samme indhold

Værktøjer som ElevenLabs gør det muligt at generere tale på dansk og mange andre sprog ud fra en kort lydprøve.

Risici og svindel
Stemmekloning bruges også til svindel. Der er eksempler på falske opkald, hvor en direktørs stemme efterlignes for at få medarbejdere til at overføre penge. Teknologien gør det sværere at stole på, at en stemme i telefonen er ægte.

For organisationer betyder det, at man bør have procedurer for at verificere usædvanlige anmodninger – også selvom stemmen lyder velkendt.

Stemmekloning er tæt beslægtet med deepfakes, som manipulerer video og billeder på samme måde.

Læs mere
Talesyntese på Wikipedia

En stor sprogmodel er den danske betegnelse for en Large Language Model (LLM). Det er en sprogmodel, der er trænet på meget store mængder tekst og har et højt antal parametre, hvilket gør den i stand til at løse komplekse sproglige opgaver.

Læs mere i opslaget LLM (Large Language Model).

T

ChatGPT Team er en version af ChatGPT, der er udviklet til teams og organisationer. Den giver mulighed for at arbejde mere sikkert og samarbejde på tværs af kolleger uden at blande private og fælles projekter sammen.

I ChatGPT Team får I en fælles arbejdsflade, hvor I kan:

  • dele Custom GPT’er
  • dele projekter, filer og dokumenter
  • arbejde med fælles standarder og instruktioner
  • give alle adgang til de samme modeller og funktioner
  • styre rettigheder og datasikkerhed centralt

 

ChatGPT Team adskiller sig fra den almindelige version ved, at data fra teamet ikke bruges til at træne OpenAIs modeller. Det er derfor et bedre valg til professionelt kommunikationsarbejde, hvor man håndterer interne dokumenter, analyser, oplæg og procesmateriale.

For kommunikationsfolk giver Team-versionen især værdi, når man:

  • vil sikre ensartet tone, struktur og kvalitet i organisationens indhold
  • arbejder i fælles projekter med mange filer og baggrundsmaterialer
  • ønsker at dele Custom GPT’er, der repræsenterer organisatoriske standarder
  • vil give alle medarbejdere adgang til de samme AI-værktøjer uden at opbygge teknisk kompleksitet

 

Eksempel
En kommunikationsafdeling opretter en Custom GPT til nyhedsbreve og deler den i ChatGPT Team. Alle medarbejdere får adgang til samme tone, skabeloner og instruktioner, hvilket giver mere ensartede udsendelser og sparer tid på redigering.

En token er den måleenhed, som sprogmodeller bruger til at forstå og bearbejde tekst. I stedet for at læse hele ord ad gangen, opdeler modellen teksten i mindre bidder – ofte ordstammer, endelser eller tegn.

Ordet “kommunikationsfolk” bliver for eksempel delt op i flere tokens: “kommunikation”, “s” og “folk”. Et kort ord som “AI” tæller som én token, mens “kunstig intelligens” typisk bliver til tre-fire tokens. Tommelfingerreglen er, at 100 tokens svarer til cirka 75 danske ord.
Tokens er afgørende af to grunde:

  • De bestemmer, hvor meget du kan skrive i én samtale med en AI. Alle modeller har et loft for, hvor mange tokens de kan behandle ad gangen – det såkaldte context window. Overskrider du det, glemmer modellen det, du skrev først.

  • De bestemmer prisen. Betaler du for API-adgang til ChatGPT eller Claude, afregnes der efter antal tokens i både din prompt og AI’ens svar.

For kommunikationsfolk betyder det, at længere dokumenter og samtaler koster mere – og at meget lange prompts risikerer at blive afkortet, hvis de rammer loftet.

Læs mere:
OpenAI – What are tokens

Transformer er den grundlæggende teknologi bag mange moderne AI-værktøjer. Den blev beskrevet første gang i 2017 af forskere hos Google og er en af hovedårsagerne til, at systemer som ChatGPT og Gemini kan skrive og forstå sprog så overbevisende.

Før Transformer arbejdede computere med tekst trin for trin. De læste et ord ad gangen og havde svært ved at holde styr på meningen i lange sætninger. Vigtige informationer tidligt i teksten gik ofte tabt undervejs.

Transformer ændrede det ved at lade modellen se på hele sætningen på én gang og vurdere, hvilke ord der hænger sammen, og hvilke der betyder mest for meningen. Det gør det muligt at skelne mellem ord med flere betydninger og forstå sammenhængen i længere tekster.

I praksis er det derfor, moderne AI kan skrive mere flydende, oversætte mere præcist og svare mere relevant end ældre chatbots. Det er Transformer, der gør forskellen.

Turing-testen er en metode til at vurdere, om en maskine kan tænke. Den blev foreslået af den britiske matematiker Alan Turing i 1950 og bygger på en simpel idé: Hvis en maskine kan føre en samtale så overbevisende, at et menneske ikke kan skelne den fra et andet menneske, kan maskinen betragtes som intelligent.

Testen fungerer sådan: En dommer fører skriftlige samtaler med både et menneske og en maskine uden at vide, hvem der er hvem. Hvis dommeren ikke kan identificere maskinen, har maskinen bestået testen.

Turing-testen handler ikke om, hvorvidt maskinen rent faktisk tænker – den handler om, hvorvidt den kan ligne en, der gør. Det gør den til et funktionelt kriterium snarere end et filosofisk.

I dag er testen blevet aktualiseret af moderne sprogmodeller som ChatGPT og Claude. Disse systemer skriver så naturligt, at mange brugere oplever dem som menneskelige samtaler.

Men der er afgørende forskelle: Maskinerne forstår ikke kontekst på samme måde, de mangler erfaringer og bevidsthedsforankret forståelse, og de kan ikke tilpasse sig sociale nuancer på samme måde som mennesker.

V

Vibe coding er en måde at bygge software på, hvor du beskriver, hvad du vil have, i almindeligt sprog — og AI skriver koden for dig. Du behøver ikke forstå koden. Du ser resultatet, justerer via nye prompts og fortsætter derfra.

Begrebet blev skabt af AI-forskeren Andrej Karpathy i februar 2025. Hans pointe var, at man med de nye sprogmodeller kan “glemme, at koden overhovedet eksisterer” og bare fokusere på, hvad man vil bygge.

Vibe coding bruges typisk til:

  • hurtige prototyper og eksperimenter
  • småprojekter, hvor hastighed tæller mere end perfektion
  • opgaver, der ellers ville kræve en udvikler

Hvad det ikke er

Vibe coding er ikke det samme som at bruge AI som hjælp i sin kodning. Skriver du koden med AI, men læser, tester og forstår resultatet, er det AI-assisteret programmering.

Vibe coding forudsætter netop, at du ikke gennemgår koden linje for linje.

Fordele og begrænsninger

Vibe coding gør det muligt for folk uden teknisk baggrund at bygge funktionerende apps. Til prototyper og interne værktøjer fungerer det godt.

Til større systemer med krav til sikkerhed, datahåndtering og vedligehold er det risikabelt. Ingen forstår koden fuldt ud — og det kan koste dyrt, når noget går galt.

Kort sagt

Vibe coding handler om resultatet, ikke om implementeringen. Det åbner en dør for ikke-tekniske brugere, men kræver stadig kritisk sans og et øje for, hvornår AI’en fejler.

Læs mere
Wikipedia – Vibe coding

Relateret indhold

AI for kommunikationsfolk

Få min gratis guide:
Bedre sprog med ChatGPT

Tilmeld dig mit nyhedsbrev og modtag guiden, der hjælper dig med at få ChatGPT til at skrive klart, enkelt og mere naturligt på dansk. 

I nyhedsbrevet får du korte tips om AI, praktiske eksempler og inspiration til, hvordan du kan bruge ChatGPT i dit kommunikationsarbejde.