Kontakta oss
Nimble & co

Vi hjälper företag som vill stärka, utveckla och framtidssäkra sin digitala närvaro och därmed sin verksamhet. Vårt fokus är på företagets digitala närvaro, marknad och försäljning.

risker_generativ_Ai

Risker med Chat GPT och generativ AI för företag

AI har många fördelar när det kommer till att göra oss marknadsförare mer produktiva och effektiva, men den nya tekniken har även risker som vi bör vara väl medvetna om. Genom medvetenhet kan vi förbereda oss och därmed mitigera eventuella risker. Samtidigt som vi har möjlighet att skapa konkurrensfördelar med hjälp av den moderna tekniken som nu finns tillgängligt för oss.

 

 

Risk med generativ AI: copyright utmaningar

Generativ AI som Chat GPT och liknande kräver stora mängder “träningsdata”. Därmed skickar företag som Open AI ut en spindel som samlar in data baserat på vad som finns tillgängligt på internet. Därmed samlar tex Open AI in texter, bilder, fotografier med mera som andra människor har skapat. Vilket rent krasst är att stjäla andra människors material. Det vill säga Open AI tar material som andra har upphovsrätt till och använder det på ett sådant sätt som Open AI faktiskt inte har samtycke till.

 

Min rekommendation är att

 

Hålla dig uppdaterad om de stämningar som sker i USA mot Microsoft och Open AI.

 

Legal Technology listar aktuella stämningar

 

Skapa en guide till företagets anställda runt vad som är okej och inte okej att skapa. Ett konkret exempel är att be Chat GPT skriva en text som en specifik person, eller i deras tone of voice och så vidare.

 

Håll dig uppdaterad om EU AI Act.

 

 

Risk med generativ AI: att företagets egna intellektuella egendomar eller data delas utanför verksamheten

 

Här bör företag agera med stor tydlighet och eftertänksamhet. Allting som adderas in i generativ AI blir del av datat som är tillgängligt för alla som använder verktyget. Det vill säga, lägger en anställd upp affärskritisk data i Chat GPT Data Analyst modul för att kunna skapa en analys, kommer datan att bli del av Chat GPT som helhet. Varje gång vi använder Chat GPT, både materialet vi ber den arbeta med och de “prompts” vi använder blir del av att träna modellen.

 

Lösningen är att skapa en egen LLM för företaget. Vilket är fullt möjligt för de företag som har de resurserna, för att skydda sin egen kunskap, expertis och data.

 

Eller att säkerställa att all chatthistorik raderas. Läs om hur du går tillväga för att radera chathistorik här.

 

 

 

Risk med generativ AI: inte tillräckligt med data från olika perspektiv, dvs bias

 

Eftersom den data som Chat GPT och andra generativa modeller tränas på är baserad på existerande data från internet, kommer det att hålla upp en spegel mot mänskligheten. De bias och tillkortakommanden som vi har, kommer att förankras ytterligare. Om modellen inte är medvetet instruerad på annat vis, vilket Gemini var/är.

 

Därmed bör det tas i beaktning i allt material som skapas av generativ AI och vi bör ha med det i vår utvärderingsprocess som en aspekt av kvalité.

 

 

Risk med generativ AI: förlegad data

 

I vårt snabbrörliga värld, med ett överflöd av information, innebär det att de generativa AI modellerna än så länge ligger efter. Om ditt företag är beroende av information som är säkerställd att vara up to date. Då bör det finnas tydlighet i verksamheten hur och när generativ AI får användas. Räkna med att Chat GPT ligger i alla fall 6-8 månader efter i tid.

 

 

Risk med generativ AI: felaktigheter och hallucinationer

 

Chat GPT och generativ AI kan skapa svar med faktafel, samt hallucinera och hitta på. I skrivande stund har Open AI fortfarande en tydlig text synlig i Chat GPT som hänvisar till att Chat GPT kan ha fel.

 

Därmed bör ditt företag vara tydlig med när Chat GPT kan användas, till vad och hur både fakta och källgranskningen bör gå till för att kunna publiceras eller användas på andra sätt.

 

 

Risk med generativ AI: att inte vara transparent mot företagets kunder

 

Idag kan vi använda BotPress som är del av Open AI, eller andra verktyg för att skapa chattbotar. Därmed behöver företag vara tydliga med när en kund interagerar med en bot och inte.

 

Jag rekommenderar även att lägga till funktioner som att säkerställa att personlig data raderas, om det ingår i scriptet att samla in till till exempel kundtjänst för att lösa något. Eller ge kunden själv det valet vid påbörjad eller avslutad chat. För att ligga steget före eventuella utökningar av lagstiftningar som sannolikt kommer inom snar framtid.

 

 

Risk med generativ AI: företaget har valt ett verktyg som inte är anpassat till uppgiften i fråga

 

Det finns nu flera olika verktyg på marknaden, även när det gäller generativ AI. Vid val av verktyg bör företag vara medvetna om vem som står bakom verktyget. Vilken vinkel och perspektiv är det generativa AIt skapat ifrån. Det spelar roll eftersom om vi jämför verktyg som Chat GPT med tex Hoppy Copy har vi två helt olika verktyg och möjligheter även fast de båda är LLMs. Chat GPT är skapat av kodare, medan Hoppy Copy är ett generativ AI skapat för marknadsförare.

 

Väljer ditt företag fel typ av verktyg, påverkar det arbetsprocessen men också kvalité och möjligheterna till effekt med verktyget. 

 

 

För att summera riskerna kopplat till generativ AI

 

  • Copyright
  • Företagets intellektuella egendomar eller känslig data görs tillgänglig utanför verksamheten
  • Bias förankras
  • Datat är för gammalt
  • Faktafel
  • Avsaknad av transparens mot företagets kunder samt saknar samtycke till att personuppgifter hanteras
  • Verktyget som väljs är inte optimalt

Foto av Solen Feyissa