Artificiell intelligens (AI) är en snabbt växande teknologi som har potential att revolutionera många aspekter av vårt samhälle. Samtidigt har AI också gett upphov till en rad juridiska utmaningar, som inte helt har hängt med i utvecklingen. I denna artikel diskuteras några juridiska frågeställningar som uppstår när det gäller AI, med fokus på EU:s dataskyddsförordning (GDPR) och immaterialrätt.

Datahantering och GDPR

GDPR reglerar hur personuppgifter ska hanteras och skyddas inom EU. AI-system behandlar ofta stora mängder personuppgifter, vilket kan skapa konflikter med GDPR.

Exempel:

  • Bristande transparens. Ett AI-system som används för att analysera kreditrisker kan komma att behandla personuppgifter om inkomst, boende och kredithistorik. Detta kan ses som en kränkning av den personliga integriteten, om inte systemet är tillräckligt transparent och ger individer möjlighet att kontrollera sina personuppgifter och logiken bakom automatiska beslut.
  • Underliggande bias. Ett AI-system som exempelvis används för att automatisera beslut om anställning kan komma att diskriminera vissa grupper av människor, då det finns risk att systemet baserar beslut på icke objektiv eller diskrimineringsfri data.
  • Aktiverar ansvar. Vidare kan en ny AI-genererad sammanställning utgöra en ny behandling enligt GDPR, och då blir ni som innehavare av sammanställningen personuppgiftsansvarig, och måste följa GDPR. Detta kan innebära att ni exempelvis måste säkerställa att ni har en giltig rättslig grund för er behandling och att de enskildas rättigheter kan beaktas. Vidare måste ni säkerställa att ni inte har samlat mer personuppgifter än vad som är nödvändigt och att dessa är korrekta, vilket givetvis är en utmaning då ursprunget är okänt.

Immaterialrätt och upphovsrätt

AI-system kan även generera text, musik, bilder och andra konstverk som är svåra att skilja från verk skapade av människor.

Denna utveckling har skapat nya utmaningar för immaterialrätten, som traditionellt har fokuserat på verk skapade av människor. De viktigaste utmaningarna är följande:

  • Upphovsrättsinnehavare. Vem äger upphovsrätten till ett verk skapat av en AI? Är det utvecklaren av AI-systemet, eller är det den person eller organisation som tillhandahöll data och instruktioner till systemet?
  • Kränkningar av upphovsrätten. Kan ett AI-system bryta mot upphovsrätten genom att kopiera material från andra verk? Detta kan vara en fråga om AI-systemet har fått tillgång till upphovsrättsskyddat material utan tillstånd från upphovsrättsinnehavaren.
  • Mänsklig inblandning. Hur stor är den mänskliga inblandningen i skapandet av ett verk genererat av en AI? Detta kan vara en viktig faktor för att avgöra vem som är upphovsman till verket.

Exempel:

  • Ett företag som utvecklar ett AI-system som genererar musik kan hävda att företaget är upphovsrättsinnehavare till de verk som systemet skapar. Detta beror på att företaget har utvecklat systemet och använt sina egna resurser för att träna det.
  • Ett AI-system som används för att generera bilder kan kopiera material från andra verk utan tillstånd från upphovsrättsinnehavaren. Detta kan utgöra en kränkning av upphovsrätten.
  • Ett AI-system som används för att generera text kan vara resultatet av ett samarbete mellan en människa och en AI. I det här fallet kan det vara svårt att avgöra vem som äger upphovsrätten till verket.

Ansvarsfrågor

AI-system kan agera oberoende av mänsklig inblandning, vilket kan skapa utmaningar när det gäller ansvarsfrågor.

Exempel:

  • Om ett AI-system fattar ett felaktigt beslut som leder till skada, vem är då ansvarig? Är det utvecklaren, användaren, eller AI-systemet självt?
  • Om ett AI-system används för att generera falsk information som sprids på sociala medier, vem är då ansvarig för spridningen av denna information?

Ett sätt att hantera detta är att ta in tydliga texter om att materialet är AI-genererat och att man inte kan ta ansvar för detta, utan ska granskas kritiskt. Detta är särskilt viktigt om vi rör oss inom områden där besluten är av stor vikt, såsom inom exempelvis medicin, finans och juridik, men även många andra. Härigenom kan man även göra en ansats i att förtydliga vem som äger informationen och vem som är upphovsman.

Internationell harmonisering

AI är en global teknologi, och lagstiftning varierar mellan länder och regioner. Detta skapar komplexitet för företag och organisationer som vill använda AI på en global skala.

Exempel:

  • Ett företag som använder ett AI-system för att analysera data från flera länder kan behöva följa olika lagar och regler.
  • En organisation som vill använda ett AI-system för att automatisera beslut kan behöva anpassa sitt system för att följa lokala lagar.

Framtida lagförslag och harmonisering

Användningen av AI har skapat nya juridiska utmaningar som måste hanteras för att skydda individers rättigheter, främja ansvarig användning och främja teknologins utveckling. Dessa utmaningar har inga enkla lösningar. EU har dock tagit ett antal steg för att ta itu med dessa frågor. I juli 2021 antog EU-kommissionen ett förslag till en AI-förordning.

Förordningen syftar till att säkerställa att AI används på ett säkert, etiskt och ansvarsfullt sätt. Förordningen innehåller bestämmelser om datahantering och integritet, ansvarsfrågor, diskriminering och rättvis användning samt internationell harmonisering. Den stora frågan är dock om denna reglering kommer att kunna lösa alla problem uppstår, speciellt med tanke på att man brukar säga att lagstiftningen ligger 10 år efter den tekniska utvecklingen.

Kanske ligger lösningen i att man försöker anpassa existerande lagstiftning genom ett utökat samarbete mellan myndigheter, teknologiföretag och samhället på en global nivå för att på så sätt utveckla en lämplig och hållbar lagstiftningsram för AI-åldern.

Wrap-up

Då den breda tillämpningen av AI som sagt är i sin linda finns det fler frågetecken än svar i dagsläget.

Den stora juridiska utmaningen med AI-genererat material är att den mänskliga faktorn och kontrollen distanseras, och att det härav sker en förflyttning från människa till maskin. I väntan på att lagstiftarens reglering är det därför väldigt viktigt att vara medveten om och försöka minimera riskerna, t.ex. genom att ta fram interna riktlinjer för användning av AI-verktyg i er verksamhet. Ett stort steg i rätt riktning är, enligt vårt tycke, att vara transparent vad det gäller användningen av AI i dess olika former, för det är därigenom vi kan försöka ta kontroll över såväl utformningen och tillämpningen, som över resultaten, av detta kraftfulla verktyg. Om ni är ett av många företag som implementerar och bygger lösningar på olika AI-verktygs (såsom ChatGPT, Google Bard och Microsoft Copilot) öppna API så kan vi guida er i hur ni hanterar riskerna som presenteras ovan. Tveka inte att kontakta oss genom att boka ett möte eller mejla hej@legalworks.se.

Slutligen: texten ovan skulle kunna vara skriven av ett AI-verktyg – eller av Axel Tandberg och David Ericson, LW Advisory. Vågar ni lita på den?

Rulla till toppen