Cybersecurityexperts: Geen vertraging in AI nodig, maar versnelling in weerbaarheid
Tegelijk moet het besef groeien van waar tegenstanders zullen proberen de technologie in te zetten voor hun eigen doelen, stelt een aantal cybersecurityspecialisten.
Een pauze in de ontwikkeling van een volgende generatie AI zal gewetenloze types er niet van weerhouden de technologie in gevaarlijke richtingen te ontwikkelen, stelt McAfee-CTO Steve Grobman ineen artikel van Venturebeat. "Bij technische doorbraken is het heel belangrijk dat organisaties en bedrijven hun standaarden en ethiek laten mee-ontwikkelen om ervoor te zorgen dat de technologie op de meest verantwoord mogelijke manier wordt gebruikt."
Hij zegt ook dat een pauze een niet haalbare overregulering is. "AI is toegepaste wiskunde. We kunnen mensen geen regels opleggen om ze ervan te weerhouden wiskunde toe te passen."
Sectorspecifieke regulering belangrijk
Grobman krijgt in het Venturebeat-artikel bijval van Justin Fier, SVP of Red Team Operations bij Darktrace. Hij zegt dat het nadenken over regulering van AI een belangrijk en continu proces is. Maar vooral een urgente uitdaging voor wetgevers met sectorspecifieke kennis omdat de toepassingen zich uitstrekken van gezondheidszorg tot luchtvaart. Hij pleit voor een internationale consensus over wie aansprakelijk is bij het misbruik van allerlei vormen van kunstmatige intelligentie en automatisering, niet alleen bij generatieve AI. "Een korte pauze bij de ontwikkeling van generatieve AI gaat dat probleem niet oplossen.
Risico's beperken
De aandacht van de cybersecuritygemeenschap moet liggen bij het versnellen van de discussie hoe de risico's die samenhangen met het misbruik van AI kunnen worden ingeperkt. Ook zouden de leveranciers van AI transparanter moeten zijn over de 'vangrails' die zij aanbrengen in hun technologie om het ontstaan van nieuwe bedreigingen te voorkomen. Gartner-analist Avivah Litan stelt in dat kader dat de ontwikkeling van large language models (LLM) gebruikers nodig heeft om vertrouwen te krijgen in het functioneren van de 'red teams' van de leverancier. Maar organisaties als OpenAI zijn vaag over hoe ze intern omgaan met risico's en er zijn weinig mogelijkheden voor eindgebruikers om de werking van de getroffen beschermingsmaatregelen op waarde te schatten.
Nieuwe tools helpen
Gartner heeft het tegenover Venturebeat over de ontwikkeling van een nieuwe klasse aan trust, risk and security management [TRiSM] tools. Leveranciers zouden die tools aan eindgebruikers ter beschikking moeten stellen zodat zij zelf data- en content-missers kunnen opsporen. Een andere manier is om AI in te zetten om AI-missers te bestrijden. Microsoft Security Copilot zet bijvoorbeeld GPT-4 in in combinatie met bekende security data.
Jeff Pollard, analist bij Forrester zei tegen Venturebeat: "De enige manier om cybersecurity er klaar voor te maken is er nu mee beginnen." Het idee dat het inlassen van een pauze gaat helpen komt als een boemerang terug naar cybersecurityteams.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee