Lav din egen GPT-4 assistent med OpenAI

OpenAI, der driver ChatGPT har åbnet muligheden for at ChatGPT-Plus brugere kan oprette AI Assistenter helt uden at kode.

AI Assistenter er en specialiseret udgave af ChatGPT, som du kan give særlige instrukser og udgive. OpenAI har allerede lavet nogen som eksempelvis ‘The Negotiator’ der hjælper dig med at blive bedre til at forhandle, ‘Creative Writing Coach’ der giver dig feedback på din skrivestil, ‘Tech Support’ og mange andre.

Eksempel – outsourcing assistenten

For at illustrere hvor nemt det er at komme i gang, har jeg bygget en Assistent der ved alt om outsourcing-bekendtgørelsen for pengeinstitutter og forsikringsselskaber. Det er trods alt nemmere at stille en assistent spørgsmål end at læse de mange hundrede siders lovgivning, bekendtgørelser og vejledninger.

Hurtige prototyper

OpenAI har hermed givet os et værktøj der er lynhurtig til at udvikle prototyper på chat-assistenter og endda med mulighed for at tage dem i brug, i de situationer hvor vi kan leve med en løsning der ligger i skyen – apropos outsourcingbekendtgørelsen.

Denne assistent tog det ca. to timer at etablere og teste overordnet af.

Outsourcing Assistenten

Der er forskel på lovgivningen alt efter om vi taler om pengeinstitutter og datacentraler eller det handler om forsikringsselskaber. Jeg har derfor lavet to assistenter:

Har du selv et ChatGPT-Plus abonnement, kan du afprøve dem ved at klikke på billedet. De linker til den respektive udgave af assistenten i ChatGPT Plus. Det kræver du logger på med din ChatGPT bruger.

Bemærk at assistenten kun har adgang til lovtekst, bekendtgørelser og guidelines fra EU. Assistenten kunne man udvide med en FAQ på de mest stillede spørgsmål og svar fra eksperter i outsourcing for at gøre assistenten endnu bedre.

Herunder gennemgår jeg hvordan jeg oprettede outsourcing-assistenten på 2 timers arbejde. Så har du ikke ChatGPT Plus kan du kigge med her, eller springe til slutningen for at se assistenten ‘in action’.

Oprettelse uden at kode

Forberedelse

Download direktiv 2009/138/EF og Forordning 2015/35 fra EU.
Download EIOPA Guidelines on Outsourcing fra EU.

Disse skal uploades til assistenten som dens vidensbase for de spørgsmål brugerne kommer med.

Opret GPT assistenten

Log på ChatGPT og klik på “Explore” øverst til venstre lige under der, hvor du starter en ny chat:

Som Plus-bruger ser du nu en oversigt over de Assistenter OpenAI har lavet, samt muligheden for at oprette din egen:

Her klikker jeg på Create. Herefter åbnes GPT Builder, hvor GPT Builder assistenten er parat til at hjælpe os i gang.

Byg sammen med GPT Builder

Så er det ellers bare at uploade vores dokumenter og skrive en forklaring til GPT om, hvad det er applikationen skal kunne, så den kan foreslå en opsætning til os.

Så snart vi klikker på PIL-OP knappen, begynder Builder at lave vores assistent.

Den foreslår herefter et profilbillede, navn og tekst, som vi via chat kan opdatere. Resultatet ser således ud:

Så bliver vi bedt om at specificere hvilke opgaver assistenten skal fokusere på. Her beder jeg den fokusere på outsourcing, da der også står meget andet i direktivet og forordningen, samt beder den fokusere på EIOPA guidelines. Bemærk at vi sagtens kan instruere den på dansk.

Da den blev instrueret i at kunne lave en rapport, vil den gerne vide, hvordan rapporten skal se ud. Her bad jeg den om selv at komme med et forslag.

Nu er vi stort set klar til at teste.

Finpudsning

Inden vi tester, kan vi lige gå opsætningen igennem. Der er en fane der hedder ‘Configure’ hvor vi kan se hvordan GPT Builder har defineret assistenten.

Her valgte jeg at tilrette navnet på agenten samt at lave en dansk beskrivelse.

Efterhånden som vi tester, er det også her vi manuelt kan tilføje yderligere instruktioner til agenten i ren tekstform. Vi skal altså stdig ikke kode.

Anvendelse af service API

Vi har mulighed for at tilføje Actions, som henter data fra offentlig tilgængelige API’er. Skulle vi bruge det til at integrere med et andet system, skal vi have hjælp fra en udvikler, der har en beskrivelse af servicen og hvordan der logges på den. Det har vi dog ikke brug for her, så vi springer den over.

Databeskyttelse

I stedet fjerner vi fluebenet i ‘Use conversation data … to improve our models’, så fortrolige aftaler og tekster der måtte blive givet til assistenten af en bruger, ikke bliver en del af OpenAIs træningsplan for kunstig intelligens.

Afprøvning af assistenten

Nu kan vi afprøve den.

Den har nogle forslag til hvad vi kan starte med at spørge om. Det er også noget vi kan tilpasse i assistentens opsætning, så det passer bedre til det formål assistenten har.

Her prøver jeg det sidste forslag, og hører hvad den har at fortælle om EIOPAs retningslinjer.

Som det ses præsenterer den en nogenlunde læsevenlig udgave af de relevante informationer fra EIOPAs guidelines. Endda på dansk selvom jeg kom til at uploade den på engelsk!

Jeg er interesseret i cloud services, og hvad der skal dokumenteres, så ud fra svaret, stiller jeg et uddybende spørgsmål, og får et svar der er til at forstå:

Når assistenten bruger GPT-4 sprogmodellen til at formulere svaret, kan der være info den udelader i svaret, ligesom der vil være omformuleringer som kan betyde at noget af meningen fra lovteksterne forvanskes.

Derfor kan det være en god idé at tilføje til assistenten, at når altid bør afslutte med at konkrete spørgsmål altid bør vurderes af en ekspert i outsourcing.

Udgivelse

Så mangler vi bare at gemme og udgive assistenten. Her vælger jeg at udgive den til alle som har linket (og et Plus abonnement).

Konklusion

Med GPT Builder og ChatGPT Plus kan vi hurtigt bygge AI Assistenter der håndterer en specifik opgave. Vi kan endda understøtte den med dokumentation og/eller integrationer vil vores systemer.

Vi kan bygge dem helt uden at kode, og lave ret avancerede systemer uden at vi skal forholde os til teknik så som hvordan store dokumenter opdeles i relevante afsnit og fremsøges. Det klarer den selv.

I en reguleret sektor, kan GPT Builder bruges til at lave hurtige prototyper til at afdække om et forretningsbehov kan indfris med GPT chatmodeller. Har vi opfylde behovet og levere en acceptabel business case, kan vi herfra overveje om vi skal etablere et AI/LLM projekt selv, eller om vi til den konkrete opgave kan leve med cloud løsningen.

Og nu har vi så også en assistent der kan hjælpe os med at afdække hvad der skal til for at klargøre en ny cloud-service til brug i finansiel virksomhed!

Chatbots og dine data

Start dit pilotprojekt med sikkerhed i fokus

Er du klar over de skjulte farer ved brug af generative AI-modeller i din virksomhed? I takt med at teknologier som ChatGPT bliver mere udbredte, stiger risikoen for utilsigtet eksponering af følsomme data. Dyk ned i denne artikel for at forstå de potentielle faldgruber, og få praktiske råd til, hvordan du kan beskytte din virksomheds mest værdifulde information.

Introduktion

Generativ AI, såsom ChatGPT, bliver stadig mere populært, og det har aldrig været nemmere at udvikle integrationer der anvender ChatGPT som en service der udvider funktionaliteten for brugerne. ChatGPT kan bruges til en række opgaver, herunder kundesupport, dokumentgenerering og produktinnovation, men der er også risici forbundet med at sprogmodellerne er så let tilgængelige. En af de største risici er, at følsomme data uforvarende kan blive udsat, hvis man ikke tænker sig om.

I denne artikel vil gennemgå de potentielle risici ved at udvikle prototyper på generative AI-modeller. Vi vil også give nogle tips til, hvordan du kan reducere disse risici.

Risici ved at udvikle prototyper på generative AI-modeller

Når virksomheder tester nye teknologier som ChatGPT, er der potentiel risiko for at udsætte vigtige data. Her er nøgleområderne, hvor dette kan ske:

  1. Databasering: Hvis vi bruger vores forretningsdokumenter som datakilde, kan kritiske oplysninger utilsigtet blive tilgængelige for alle, hvis de ikke er korrekt håndteret, eksempelvis hvis der bruges en ubeskyttet testdatabase til en hurtig prototype.
  2. Dataoverførsel: Overførsel af information mellem systemer kan udgøre en risiko, især hvis det sker uden sikker overvågning. ChatGPT kan desuden producere resultater, der ikke nødvendigvis er præcise, da de ikke har menneskelig dømmekraft, hvilket kan resultere i forvanskning af det input vi gav den.
  3. Dataeksponering: Når vi sender prototype data til vores model, og vi ikke har analyseret kildedata endnu, kan vi nemt komme til at overføre kritiske eller personfølsomme data, hvis de findes i dele af vores dokumentdatabase.
  4. Sikkerhedsprotokoller: Uden passende sikkerhedsforanstaltninger øges risikoen for datatab. Dette tænker vi ofte ikke på når vi prototyper.
  5. Overvågning: Originale databaser kan have overvågning for at se, hvem der har adgang til information. Dette kan gå tabt, når data overføres til en ny database.

Under prototypeudvikling kan sikkerhed undertiden blive overset, da fokus ligger på funktionalitet. Dette kan især være en udfordring, hvis vi bruger vigtige forretningsdokumenter i tests.

I startfasen af projekter får udviklere ofte bred adgang til de nødvendige systemer og data. Dette giver dem mulighed for effektivt at bygge og afprøve nye løsninger. Dog kan denne åbne adgang, som kan inkludere databaser og andre centrale systemer, bære potentielle sikkerhedsrisici. Specifikt kan vigtige data utilsigtet blive vist i demo-miljøer, der endnu ikke har robuste sikkerhedsforanstaltninger som adgangskontrol eller kryptering. Vi skal være opmærksomme på denne risiko og balancere det med ønsket om at lave hurtige prototyper, så vi når et beslutningsgrundlag på en sikker måde.

Når vi anvender avancerede sprogmodeller som ChatGPT, skal vi nøje overveje, hvilken type data der kan kræve særlig beskyttelse:

  1. Kundedata: Selvom generel virksomhedsdokumentation ofte ligger uden for GDPR’s rammer, kan spørgsmål fra kunder indeholde følsomme oplysninger. Dette inkluderer persondata som navne, adresser og e-mails, samt andre sensitive detaljer som betalingsinformation.
  2. Virksomhedsinformation: Mange af vores interne dokumenter har muligvis ikke persondata, men kan indeholde fortrolige oplysninger. Eksempler herpå kan være intern systemdokumentation eller planer for virksomhedens fremtid.
  3. Modeloutput: Svarene, som modellen genererer, kan også være følsomme, især hvis de bygger på sensitive inputdata.

For at sikre disse data skal vi have stærke databeskyttelsesprotokoller på plads. Dette betyder kryptering, solid adgangskontrol og regelmæssige sikkerhedstjek. Ved at få dit team til at skitsere hvordan data vil flyde, kan I hurtigt skaffe jer et overblik over implikationerne.

Figur: Flowdiagram for en prototype på Retrieval-Augmented Generation (RAG) som viser hvordan den sender kundeinput ud i en cloud løsning og hvordan den har hentet en dokumentstore med rettighedsbeskyttelse af indhold ned i en lokal datastore, hvorfra alle data nu i princippet er udstillet til brugere af prototypen.

Tips til at reducere risici

Når du udvikler prototyper med AI, er her nogle vigtige trin for at sikre datasikkerhed:

  1. Testdata: Udvælg dokumenter og data uden følsomme oplysninger til prototypeudvikling. Undlad at bruge hele mapper eller dokumentbiblioteker ukritisk.
  2. Sikkerhedsforanstaltninger: Sørg for at forbindelser er krypterede, at lokale databaser eller servere har adgangskontrol og at demomiljøet et begrænset til godkendte brugere.
  3. Uddannelse: Træn udviklere om de unikke risici ved at arbejde med generative AI-modeller.

Er du eksempelvis ved at implementere en chatfunktion til dokumentation (RAG) kan du overveje:

  1. Dokumentrevision: Gennemse og mærk kritiske dokumenter. Overvej at omstrukturere nogle dele for bedre kompatibilitet med søgefunktioner.
  2. Adgangskontrol: Indfør stærke adgangsbegrænsninger så kun de rette personer kan tilgå værktøjet eller de kun kan få svar fra dokumenter de har adgang til.
  3. Sporing: Oprethold detaljerede sporingslogs for at overvåge dataadgang og ændringer. Dette inkluderer også de forespørgsler, chatfunktionen bruger til at generere svar.
  4. Data anonymisering: Overvej funktioner, der kan anonymisere data, før det sendes til cloud-baserede løsninger som ChatGPT.

Dette er elementer som typisk ikke er dækket af de quick-guides vi finder online, når vi som driftige udviklere går i gang med at søge information til vores prototype. Et eksempel på en guide kan du se her: https://medium.com/badal-io/chat-with-your-confluence-1535e661bd3f

Konklusion

Generative AI-modeller er et kraftfuldt værktøj, der kan bruges til en række opgaver. Men det er vigtigt at være opmærksom på de potentielle risici, der er forbundet med brugen af dem. Ved at tage de nødvendige forholdsregler kan vi reducere risikoen for, at følsomme data bliver eksponeret.

Specifikke anbefalinger til dig som leder:

  • Sørg for, at dine udviklere er klar over de potentielle risici ved at udvikle prototyper der integrerer ChatGPT.
  • Sørg for, at der implementeres sikkerhedsprotokoller der beskytter dataene under overførsel og brug.
  • Overvej at anonymisere data.
  • Arbejd med en sikkerhedsekspert for at få rådgivning om, hvordan du kan beskytte dine data.

Disse anbefalinger kan hjælpe med at reducere risikoen for, at følsomme data bliver udsat, når der udvikles prototyper på generative AI-modeller.


Skal du have hjælp til at komme i gang eller godt i mål med dit AI-projekt?

Så tag fat i os her:

ChatGPT revolutionerer kundeservice

I en verden hvor kundeservice ofte er synonym med standardiserede svar og endeløse FAQ-sektioner, markerer ChatGPT og Large Language Models (LLM) begyndelsen på en ny æra. Disse avancerede teknologier transformerer kundeservice fra et regelbaseret system til et dynamisk og personaliseret responssystem, der forstår og adresserer kundens unikke behov med præcision. Ved at dykke dybt ind i virksomhedens forretningsdokumenter og tidligere løste sager, er det nu muligt at levere svar, der er både indsigtsfulde og skræddersyet til den enkelte kunde. Læs med og opdag, hvordan ChatGPT er ved at revolutionere kundeservice, og hvordan din virksomhed kan drage fordel af denne innovation.

Introduktion

Mange virksomheders online kundeservice er efterhånden gennemsyret af, at man forsøger at få kunden til selv at finde løsningen i en FAQ eller henvise dem til en chat-bot, der kan svare på de mest basale spørgsmål, ud fra et regelbaseret setup. Når kunden endelig kommer der til, hvor hun får lov at sende en mail til kundeservice, får hun et standardsvar retur med link til den del af FAQ’en, som den kategori hun blev valgte passer til. Den FAQ som hun i forvejen ikke kunne finde svaret i. Det kan tage sin tid at komme i dialog med et rigtigt menneske, der kan forstå problemet og finde en løsning.

Fremkomsten af ChatGPT og Large Language Models (LLM) transformerer kundeservice fra et basalt regelbaseret standard FAQ-system til et mere raffineret og individualiseret responssystem. Ved at anvende LLM til at gennemgå virksomhedens forretningsdokumenter kan kunstig intelligens levere en kundeservice, der er både indsigtsfuld og målrettet til kunden.

Forestil dig en automatiseret digital kundeservice, der rent faktisk giver svar på det du spørger om!

Begrænsningerne ved traditionel kundeservice

Historisk set har automatiserede kundeservicesystemer overvejende været afhængig af at identificere en kategori, for at formulere svar fra et fast sæt af FAQ’er. Selvom denne metode er effektiv til en vis grad, mislykkes den som nævnt ofte med at adressere kundernes specifikke forespørgsler, hvilket resulterer i utilfredshed og potentielt tabt omsætning. Det fundamentale problem er systemets manglende evne til at analysere en kundes forespørgsel, hvilket i sidste ende giver mere generelle end specifikke svar.

LLM-dokumentanalyse: En revolutionerende tilgang

LLM er en katalysator for forandring. Teknologien giver mulighed for en kundeservice, der er baseret på detaljeret analyse af ikke kun kundens forespørgsel, men også forretningsdokumenter, arbejdsprocesser og tidligere løste sager. Sprogmodellens forståelse for at generere svar baseret på kontekst gør, at vi kan udvikle vores automatiserede kundeservice til nye højder:

Personlige svar: Ved at udnytte en omfattende database med forretningsdokumenter kan LLM formulere svar, der stemmer overens med de særlige problemer, kunderne støder på, og præsenterer løsninger, der er relevante, gennemførlige og i overensstemmelse med virksomhedens retningslinjer.

Udnyttelse af tidligere data: LLM har evnen til at lære fra tidligere løste sager og kundedata i virksomhedens system. Hurtig og præcis levering af korrekte svar sparer ikke kun tid, men opbygger tillid og pålidelighed blandt kunderne.

Kontinuerlig udvikling: LLM’er er designet til at udvikle sig over tid, konstant lærende og tilpassende sig til det skiftende forretningsmiljø. Ved løbende at føde systemet med dine opdaterede forretningsdokumenter og løste cases, forbliver svarene afstemt med din virksomheds best practice.

Forbedring af chatbot- og e-mail-interaktioner

Integration af LLM i chatbots og ticket-systemer tilbyder teknologiske fremskridt inden for kundeservice. Det fungerer sådan her:

Chatbots: LLM gør det muligt for chatbots at forstå nuancerne i en kundes forespørgsel, hvilket fremmer en dialog der er både fængslende og attraktiv for brugerne. Det sikrer, at chatbottens svar er afledt af en grundig forståelse af problemet, og ikke bare et standardsvar.

E-mail-svar: LLM løfter automatiske mail-svar ved at dykke ind i kundens problemer og udarbejde svar, der relaterer sig til kundens henvendelse. Det garanterer, at e-mailen går ud over blot at takke for henvendelsen, og nu tilbyder en konkret løsning til kunden baseret i virksomhedens procedurer og vidensbase, men med udgangspunkt i kundens specifikke problemstilling. Alt efter implementering, kan den kunstige intelligens have adgang til kundens information i virksomhedens systemer, og producere endnu mere konkrete svar.

Idet ChatGPT både “forstår” konteksten af henvendelsen, og kan have adgang til indhold fra virksomhedens mere tekniske dokumenter, og alligevel formulere et kundevenligt svar, bliver andelen af henvendelser der kan behandles automatisk større, og den oplevede kvalitet samtidig højere.

Konklusion

For at opsummere markerer adoptionen af LLM i forretningsdokumentanalyse begyndelsen på en ny æra inden for kundeservice, kendetegnet ved svar, der ikke blot er automatiserede, men individualiserede, ikke blot hurtige, men altomfattende, og ikke blot standardiserede, men specifikt designet til at imødekomme kundernes særlige behov.

Dette tilbyder en mere intuitiv kundeoplevelse, som samtidig løser flere problemer og besvarer flere henvendelser tilfredsstillende, hvilket medfører en højere grad af kundetilfredshed. Hurtige og korrekte svar ved vi samtidig leder til mersalg, så kunstig intelligens i kundeservice kan desuden medvirke til at øge omsætningen.

Vi går fra at registrere forespørgsler, til hurtigt at levere svar der er afstemt med kundens unikke situation.


Vil du vide mere?

Hos os kan du få sparring til, hvordan du kommer i gang med at integrere ChatGPT i dine kundeservicesystemer.

Ring 9610 9010 eller brug vores kontaktformular.