Svært mange har latt seg begeistre av ChatGPT. Tjenesten som tilsynelatende forstår spørsmål, oppgaver og beskjeder, og kan føre en dialog basert på kunstig intelligens (AI). Men det er all grunn til å være varsom, og spesielt vurdere om du står i fare for å dele forretningshemmeligheter eller patentsensitiv informasjon.
ChatGPT har på kort tid blitt et populært hjelpemiddel for mange. Det er ingen tvil om at verktøyet kan være nyttig for å generere kreative ideer, skape tekst, forbedre språk og foreslå relevant vokabular.
Du kan be ChatGPT å skrive en åndfull tale til julebordet eller et dikt som rimer på «immateriell», eller du kan be om å få en disposisjon til en tekst du skal skrive. Hvis disposisjonen virker rimelig, kan du spare mye tid, og kan bare begynne å skrive. Så det er mye positivt med ChatGPT, kanskje spesielt i de tilfellene der du ikke helt kommer i gang med teksten.
Samtidig må du være forsiktig med hva du gir av input, og det er lett å havne i en juridisk gråsone med hensyn til GDPR og personopplysninger.
Informasjonen du deler i form av spørsmål til ChatGPT vil nemlig kunne brukes av ChatGPT selv, for på den måten å lære mer. Det fremgår av ChatGPTs egen Terms of Use. Og informasjonen du deler i dialogen vil bli liggende tilgjengelig på deres server. Utenfor din kontroll. I Terms of Use heter det: “We may use Content from Services (...) to help develop and improve our Services.”
ChatGPT har riktignok et skjema der du kan be om at de avstår fra å bruke opplysningene du deler, men det er rimelig å tro at de færreste har benyttet denne muligheten.
Vil bruk av dette skjemaet være nok for å sikre at informasjon du legger igjen ikke blir brukt videre? Det skal ikke vi mene noe om. Vi skal her kun peke på den betydelige risikoen som følger av å dele informasjon som skal holdes hemmelig.
I forbindelse med patentsøknader og -prosesser vil det være avgjørende at informasjonen i søknaden ikke er delt med uvedkommende. Den skal beskrive noe nytt som ikke har vært vist frem til andre, med andre ord at den har vært hemmelig.
Kravet om hemmelighold må tas alvorlig, da brudd på slikt hemmelighold kan føre til at patentsøknaden ikke blir innvilget av Patentstyret.
Dersom informasjonen er delt med en tjeneste som ChatGPT, som altså forbeholder seg retten til å bruke den til egne formål, er det en fare for at verken nyhetskravet eller kravet om hemmelighold oppfylles all den tid man faktisk har mistet råderetten over beskrivelsen.
For varemerkeregistrering bør nok noe av den samme aktsomheten utvises, med da av hensyn til strategi og lansering heller enn registrerbarhet.
Det har vært eksempler på at ansatte har delt forretningshemmeligheter og -strategier da de la inn spørsmål eller informasjon i ChatGPT.
Dette kan potensielt ha alvorlige konsekvenser dersom det brukes i sammenheng med for eksempel patentsøknader, kontraktutkast, strategiformuleringer og kildekoder.
Vi kjenner tilfeller der en Samsung-ansatt matet inn konfidensiell kildekode for å avdekke feil.
En annen ansatt delte kode med ChatGPT og ba om en optimalisering av koden.
En tredje delte et lydopptak av et møte for å konvertere det til notater for en presentasjon. Denne informasjonen ligger nå tilgjengelig til bruk for ChatGPT og er i praksis utenfor Samsungs kontroll.
Den norske forretningshemmelighetsloven krever at det er gjort «rimelige tiltak» for å holde informasjonen hemmelig. Det vil kunne være utfordrende å hevde at slike tiltak er satt i verk all den tid informasjonen er overlatt til en AI-tjeneste og ligger på en fremmed server.
«Informasjonsteknologien (IT) utvikler seg mye raskere enn loven gjør. Dette skaper noen problemer (...) men også et behov for at juridiske fagfolk er oppdatert på utviklingen av IT-verktøy i sin daglige praksis» heter det i omtalen av prosjektet AI4Lawyers, som blant annet European Lawyers Foundation (ELF) står bak.
Det er ingen tvil om at jurister bør holde seg oppdatert på all utvikling i samfunnet, ikke minst på informasjonsteknologi. Samtidig kan ikke bruk av ny teknologi medføre at man bryter med god advokatskikk eller avtaler med klienter.
Selv om AI-tjenester som ChatGPT og andre har vist seg å være nyttig i visse sammenhenger, må man være svært varsom med å dele sensitiv informasjon og forretningshemmeligheter.
Brukere bør være klar over at informasjon som deles kan bli brukt av tjenesten selv og dermed potensielt komme på avveie. Det er viktig at bedrifter og enkeltpersoner tar ansvar for å beskytte sin konfidensielle informasjon og vurderer nøye hvilke data som blir delt med AI-verktøy.