Lenneke de Voogd over de rol van BTG als bruggenbouwer, ook met kennisplatform
19 dec 2024Sinds kort maakt Lenneke de Voogd deel uit van het bestuur van BTG. Na haar voortrekkersrol binnen het Do IoT Fieldlab maakt ze tegenwoordig vanuit...
In 2017 riep het Future of Life Institute in een ‘Open Letter’ al op tot onderzoek om ‘AI systemen te laten doen wat wij willen dat ze doen’. Uit de nieuwste alarmerende ‘Open Letter’ van hetzelfde instituut blijkt dat het punt van controleerbaarheid inmiddels is gepasseerd. Er is door de Big Five 223 miljard geïnvesteerd in de ontwikkeling van AI, maar ze doen nog niet ‘wat we willen’. Er is urgent actie nodig, zo meldt TNO op zijn website.
De werking van recent gelanceerde chat toepassingen zoals chatGPT4 en Bard, gebaseerd op grote taalmodellen (Giant AI), blijkt grotendeels onbegrepen, vertoont onverwacht ‘intelligent’ gedrag en heeft inmiddels de maatschappij in haar greep. Vanwege de potentiële disruptieve ‘economische en politieke’ effecten wordt in de brief een pauzering in de ontwikkeling van AI voorgesteld van 6 maanden om afdoende regulering tot stand te brengen en intensivering van ‘AI safety’ onderzoek naar onder andere transparantie, maatschappelijke waarden, menselijk toezicht en certificering.
Noodkreet tot bezinning
TNO ondersteunt deze ‘noodkreet’ tot bezinning. In feite stellen de ondertekenaars met hun brief de ‘European way’ voor: het ontwikkelen van Responsible AI, zoals voorgesteld door de EU Highlevel Group on AI.
Het is ondenkbaar dat medicijnen op de markt komen zonder dat die getest en gecertificeerd worden op hun (bij)werking. Met digitale technologie, zoals AI gaat dat vaak net even anders. Anne Fleur van Veenstra, Science Director ICT, Strategy & Policy bij TNO: “Digitale technologieën worden meestal eerst geïntroduceerd en vaak wordt pas daarna duidelijk wat de maatschappelijke gevolgen van de toepassing ervan zijn. Dit maakt dat er vooraf nauwelijks bijsturing mogelijk is en dat er weinig democratische controle is op deze ontwikkelingen.”
Giant AI werd vrij plots publiek beschikbaar, met een ongekende opschaling in gebruik, zonder zicht op werking en maatschappelijke consequenties.
Nog veel onduidelijkheid
Stephan Raaijmakers, actief bij TNO en hoogleraar taalmodellen en boekauteur ‘Deep Learning for Natural Language Processing’: “We snappen weliswaar de architectuur van deze modellen, maar niet de complexe relatie tussen hoeveelheden data, parameters en rekenkracht en emergentie aan de andere kant.
Dat maakt dit alles onoverzichtelijk en niet direct betrouwbaar voor een hoop toepassingen (zoals decision support). Klassieke uitlegbaarheid schiet hier vooralsnog tekort en het is zeer de vraag of we deze modellen ooit zullen doorgronden.”
Verleidelijk maar risicovol
De (potentiële) gebruikswaarde van Giant AI is groot. Big AI biedt op interactieve, toegankelijke, en welbespraakte wijze toegang tot een ongekende hoeveel kennis en informatie, anders dan zoekmachines, gepersonaliseerd samengevat en uitgelegd.
Het genereert content en dient als een inspiratiebron voor creatieve processen. Maar wie Big AI ervaart, merkt dat het nog geen zelfkennis heeft, nog veelvuldig inconsistent redeneert en ‘hallucineert’ omdat het niet weet wat het niet weet en geprogrammeerd is om altijd een antwoord te geven.
Het gebruik is tevens kwetsbaar voor bewust misleidende kennis en informatie. Verantwoord gebruik vereist het beheersen van ‘kritisch denken’ en het toepassen van meerdere methoden en bronnen.
‘AI wordt evenzeer overschat als onderschat’
Leon Kester, onderzoeker ‘AI safety’ bij TNO, zegt over de maatschappelijke effecten: “AI wordt evenzeer overschat als onderschat. Het wordt overschat dat Artificial General Intelligence (het niveau van menselijke intelligentie in morele en wetenschappelijke betekenis) om de hoek zou liggen. Het wordt onderschat hoezeer AI de integriteit van kennis en de werking van wetenschap in gevaar brengt. AI verstoort nu al onze wetenschappelijke en educatieve systemen en onze democratische processen.”
Giant AI kan zich ontwikkelen tot een publieke kennisinfrastructuur, maar dan moet die wel publiek en controleerbaar zijn. Als zodanig kan het geen ongecontroleerde ‘wapenwedloop’ van internationale technologiebedrijven zijn. Een kennisinfrastructuur is een voor de samenleving kritische infrastructuur die raakt aan de Nederlandse en Europese soevereiniteit.
De in de Open Letter voorgestelde pauze in de ontwikkeling van Giant AI lijkt het geopolitieke karakter van een wapenwedloop te negeren. Juist nu moet de kennis daarover aan de frontlinie blijven. En die kennis is niet alleen technologisch van aard, maar betreft ook sociale, economische, ethische en juridische kennis.
Het is voor onze samenleving een transdisciplinaire uitdaging, stelt TNO. Jasper van der Waa, AI-onderzoeker bij zowel TNO als TU Delft en prijswinnaar YER 2022: “Giant AI betreft een systeemtransitie waarin technologische, sociale en institutionele innovatie hand in hand moet gaan. Zelfregulering van de industrie is zelden effectief. Dat vraagt om een maatschappelijk transparante dialoog tussen overheden en bedrijven, ondersteund door de juiste expertise, gebaseerd op wetenschappelijke inzichten.”
Hoogste prioriteit AI safety research
De Open Letter roept op tot ‘robuuste’ financiering en daarmee intensivering en versnelling van AI-safety research. Tjark Tjin-A-Tsoi, CEO van TNO: “De noodkreet in de Open Letter van het Future for Life Institute neem ik zeer serieus. AI safety zit in het hart van onze missie om te innoveren voor een veilige en digitale samenleving. Wij roepen daarom niet alleen onze partners en overheid op om hier snel en intensief in te investeren, maar prioriteren het ook zelf.”
Eerder ontwikkelde TNO voor de uitrol van AI producten en diensten een praktische vertaling van voorgestelde ethische raamwerken naar concrete maatregelen en afspraken over verantwoordelijkheden.
Manieren om dergelijke responsible AI te realiseren zijn onder andere het mogelijk maken van democratische controle, een goed systeem van toezicht, afdwingen van transparantie en afrekenbaarheid van technische systemen, ontwikkelen van mechanismen waarbij burgers zich kunnen beroepen op hun rechten, en het opzetten van testfaciliteiten om technologie te beproeven voordat deze wordt toegepast buiten het lab.
TNO AI Oversight Lab
In het TNO AI Oversight Lab wordt de inbedding van AI in overheidsorganisaties vorm gegeven, zoals de betrokkenheid en verantwoordelijkheden van management en uitvoerders bij de ontwikkeling, de invoering en het gebruik van AI. Het loopt hiermee vooruit op European AI Act en de aanbeveling daarin om tot landelijke ‘regulatory sandboxes’ te komen.
Voor high risk toepassingen van AI is een methode ontwikkeld (socio-technologische feedback loop) om te komen tot een verantwoord toezicht, ontwerp en werking van ‘autonome’ AI-systemen in het veiligheidsdomein.
Er is dus een basis, maar concrete operationalisering van ethische raamwerken en reguleringsconcepten is met de komst van Giant AI aan een versnelling toe. Gegeven het disruptieve karakter van de snel verwachte komende generaties Giant AI, is het is van groot belang dat bedrijfsleven en de overheid hierin meedoen.
In conclusie meldt TNO: Het alarmsignaal van de Open letter moet heel serieus genomen worden. Big AI heeft een ongekend maar ook onbegrepen maatschappelijk potentieel. Regulering is urgent en kan niet worden overgelaten aan de markt zelf. De overheid is in staat om hier richting aan te geven en de noodzakelijke investeringen te doen, ondersteund door publieke kennisinstellingen.
Petra Claessen, Vice-voorzitter BTG en boardmember BTG Services: “AI biedt zeer relevante mogelijkheden, maar er is nog veel onduidelijkheid over de werking van AI. BTG onderschrijft dan ook de oproep van TNO tot urgente actie omtrent het ontwikkelen van zogeheten Responsible AI. Dit zorgt dat we als bedrijfsleven en maatschappij profiteren van de kansen die AI biedt, en tegelijkertijd de risico’s die de innovatie met zich meebrengt inperken.”