Na decennialange ontwikkeling van kunstmatige intelligentie (AI) hebben we het afgelopen jaar een opvallende toename gezien van AI in allerlei vormen. Terwijl organisaties snel leren hoe de ogenschijnlijk eindeloze mogelijkheden kunnen worden benut, horen we ook steeds vaker van legal counsels die nadenken over vermeende juridische risico's en de beste manieren om hiermee om te gaan.
Om bij te dragen aan dit proces heeft Kennedy Van der Laan onlangs meer dan twintig senior legal counsels ontvangen op kantoor in Amsterdam voor een intieme paneldiscussie met een delegatie van GitHub, het wereldwijde ontwikkelaarsplatform dat GitHub CoPilot aanbiedt. GitHub CoPilot, uitgebracht in oktober 2021, is een door AI aangedreven technologie die ontwikkelaars in staat stelt om als nooit tevoren software te schalen en te leveren. Op basis van opmerkingen en code van gebruikers stelt het direct individuele regels en hele functies voor, waardoor ontwikkelaars sneller en met minder inspanning kunnen coderen. Met alle aandacht onder ontwikkelaars is GitHub CoPilot inmiddels de meest geadopteerde AI-ontwikkelaarstool ter wereld geworden.
De middag begon met een technische uitleg door Ryan Salva (VP Product bij GitHub) over de fundamenten van het generatieve AI-model, hoe het getraind is op natuurlijke taaltekst en broncode uit openbaar beschikbare bronnen, en hoe het AI-model user input verwerkt om output te genereren.
Met behulp van dit betere begrip van deze technologische achtergrond ging Shelley McKinley (Chief Legal Officer bij GitHub) vervolgens in gesprek met deelnemers over obstakels waarmee de legal counsels te maken krijgen wanneer hun cliënten nieuwe technologieën adopteren. Aan de ene kant kunnen de obstakels zien op user input: behoudt de gebruiker intellectuele eigendomsrechten op de input? Wat als de input persoonlijke gegevens of gevoelige bedrijfsinformatie bevat? Wordt input ingezet voor verdere training van de toepassing? Aan de andere kant kunnen obstakels zien op de output van die toepassingen: wie bezit de intellectuele eigendomsrechten op die output? Wat als de output materiaal van derden of bestaande intellectuele eigendom bevat? Wie is verantwoordelijk voor “hallucinations” die optreden wanneer output eigenlijk onjuist is?
Na het brainstormen over hoe deze obstakels kunnen worden overwonnen, kwamen de factoren aan bod waarmee engineeringteams rekening houden bij het evalueren of ze AI-tools moeten aannemen, en hoe hun legal counsels hen kunnen helpen bij hun evaluatie. Ten slotte bespraken de deelnemers hoe ervoor te zorgen dat het interne gebruik van AI-tools in overeenstemming is met de waarden van de organisatie. Uiteindelijk waren veel deelnemers het erover eens dat zelfs wanneer organisaties op AI vertrouwen op AI om de efficiëntie te verbeteren en de effectiviteit te vergroten, verantwoord gebruik altijd menselijk toezicht vereist, en daarmee bewustzijn en betrokkenheid van alle eindgebruikers.
In de toekomst vinden vaker soortgelijke evenementen plaats. In de tussentijd kunt u zich hier aanmelden voor de technologie nieuwsbrief van Kennedy Van der Laan hier.