AI; Klaar voor Neurofeedback?
Generatieve AI modellen hebben een enorme berg aan informatie verwerkt en gebruiken feedback van gebruikers als één van de bronnen om efficiënter en “slimmer” te worden. Maar kan AI ook dommer worden van verkeerde feedback? En hoe lossen we dat dan op? Belangrijke vragen voor als we ooit datagestuurd willen werken.
Ons krachtige fragiele brein
Het menselijk brein is onvoorstelbaar krachtig. Volgens sommige wetenschappers gebruiken we maar een klein percentage van de capaciteit, maar zelfs daarmee leren we talen, sturen we onze auto’s door drukke steden en verleggen we grenzen dankzij uitvindingen door briljante wetenschappers. Maar ons brein kan ons ook aardig in de problemen brengen en langzaam maar zeker begrijpen we steeds beter hoe dat soort processen werken en wat we er aan kunnen doen.
Zo kampen veel mensen met ingesleten patronen die een grote impact hebben op hun leven. De theorie is dat een zelfde reactie op bepaald gedrag of gedrag van anderen als het ware paden slijt in patronen van hersenactiviteit (EEG profielen). Deze paden raken langzaam maar zeker zo ingesleten dat de angsten, paniekaanvallen of heftige reacties bijna automatisch tot stand komen. Natuurlijk heeft dit “inslijten” voor mensen ook voordelen. Zo kun je, als je iets duizenden keren gedaan hebt, ontzettend bedreven worden in bepaalde zaken en dat kan grote voordelen hebben.
Maar terug naar de ingesleten paden die voor heel veel mensen leiden tot angsten of andere nare reacties. Dankzij neurofeedback leren deze personen hun ingesleten paden te herkennen en daar, samen met therapie, nieuw paden voor aan te maken. Eigenlijk heel logisch, en voor veel mensen een oplossing voor heel veel ellende.
De nadelen van generatieve AI modellen
De link naar AI en Machine Learning is snel gelegd. Ook daar leiden veel voorkomende patronen tot “kennis” en we zagen bij ChatGPT 3.5 dat die vergaarde kennis tot veel in staat was. Maar toen gingen miljoenen mensen ChatGPT gebruiken en de bestaande informatie “verrijken” met hun feedback en commentaar. Aangezien ChatGPT is een generatief AI model is wordt deze feedback gebruik om efficiënter en intelligenter te worden. Research van de universiteiten van Stanford en Berkely hebben echter aangetoond dat al die user-feedback in versie 3.5 de nieuwere versie (4.0) niet slimmer hebben gemaakt. Priemgetallen bleken niet meer herkend te worden (van 97,6% accuratesse naar 2,4%), het genereren van code ging een stuk slechter en alsof dat nog niet genoeg was waren de riepen de antwoorden op 100 gevoelige vragen nogal wat vraagtekens op. Gecombineerd met verhalen over “please” gedrag en het verzinnen van jurisprudentie is duidelijk dat er toch wel haken en ogen zijn aan de manier waarop AI leert en waarmee AI kennis vergaart.
Ik neem aan dat heel veel slimme mensen zich zullen buigen over de manier(en) waarop AI iets leert, maar hoe gaan we AI iets “ontleren”? We zullen in de toekomst vaker geconfronteerd worden met regels waarmee foute kennis is opgebouwd zolang we de input van alle gebruikers dezelfde weegfactor meegeven. Als genoeg mensen maar zeggen dat de aarde plat is….
Er zullen dus technieken bedacht moeten worden om zaken die verkeerd aangeleerd zijn op één of andere manier te corrigeren. Ik heb daar nog niemand over gehoord, maar dit lijkt me knap lastig, totdat ik aan neurofeedback dacht. Maar ja, dan zul je toch eerst uit moeten zoeken welke “kennis” inmiddels vervuild is door verkeerde input en feedback.
Hoezo belangrijk?
Langzaam maar zeker gaan we toe naar datagestuurd werken. Waar we nu vaak data als ondersteunend middel zien zal het niet lang meer duren voordat de data leidend zijn. Maar dan moeten die data wel een beetje actueel en correct zijn. En vooral niet vervuild door feedback die sociaal wenselijk, vooringenomen of gewoon fout is. Data gaan we dus voortaan altijd ophalen bij de bron.
Data van de bron; simpel?
En daar is een solide integratiestrategie voor nodig. Een integratiestrategie met antwoorden op belangrijke vragen; welke interne gegevens moeten we uitwisselen, welke externe gegevens hebben we nodig, van wie zijn die gegevens en hoe veilig moet dat? Want dan creëren we niet alleen een omgeving waar een toekomstige AI implementatie “leert” van betrouwbare en actuele informatie, we bouwen ook nog eens aan een flexibele IT architectuur, ook niet onbelangrijk. Als wij ons druk maken over welke data IA zaken aanleert dan kunnen we alleen maar hopen dat andere slimme koppen zich druk maken over hoe je AI dingen ook weer af kunt leren.
Toch eens praten met een integratie expert over uw integratiestrategie? Neem contact met ons op voor een Architectuur-scan of voor één van onze andere consultancy aanbiedingen.
Reacties
Om een reactie achter te laten is een account vereist.
Inloggen Word abonnee