Het idee van machines die mensachtige intelligentie bezitten, is al lang een centraal thema in science fiction. Bekend als kunstmatige algemene intelligentie (AGI), gaat dit niveau van AI verder dan de gespecialiseerde modellen die we vandaag gebruiken voor taken zoals beeldherkenning, taalverwerking of rijden. In plaats daarvan zou AGI in staat zijn om te leren en te redeneren over een breed scala aan taken en domeinen, net als een mens.
Maar hoe dicht zijn we om Agi te realiseren? Deze vraag raakt filosofische, technologische en ethische rijken. Laten we diep duiken in wat Agi echt is, welke vooruitgang we hebben geboekt, welke uitdagingen er nog over zijn en hoe een toekomst met Agi eruit zou kunnen zien.
Inzicht in AGI versus smalle AI
De AI -systemen van vandaag worden beschouwd als “smal” of “zwakke” AI. Ze zijn ontworpen voor specifieke taken en excelleren binnen die domeinen. GPT-modellen kunnen bijvoorbeeld mensachtige tekst genereren, maar kunnen niet door de wereld navigeren of onafhankelijke beslissingen nemen buiten hun programmering. AGI zou daarentegen in staat zijn om kennis over domeinen over te dragen, zich aan te passen aan nieuwe situaties en gezond verstand en bewustzijnsachtige eigenschappen aan te tonen.
In tegenstelling tot smalle AI, zou AGI algemene cognitieve vaardigheden bezitten, wat betekent dat het elke intellectuele taak zou kunnen leren die een mens kan. De kloof tussen de huidige AI en AGI ligt niet in snelheid of gegevensverwerkingskracht, maar in het vermogen om context, causaliteit en abstract denken te begrijpen.
Vooruitgang in de richting van Agi
- Schaal wetten en funderingsmodellen: De ontwikkeling van grote taalmodellen (LLMS) zoals GPT-4, DeepMind’s Gemini of Claude van Anthropic suggereert dat toenemende modelgrootte en -gegevens kunnen leiden tot meer generaliseerbare mogelijkheden. Deze modellen beginnen AGI-achtig gedrag in specifieke contexten te benaderen.
- Multimodale modellen: Systemen die tekst, afbeeldingen, video en zelfs tactiele invoer kunnen verwerken, overbruggen de kloof tussen mensachtige perceptie en redenering. Voorbeelden zijn Openai’s GPT-4 Vision en Google’s Gemini, die tot doel hebben verschillende soorten sensorische gegevens te integreren om het situationeel begrip te verbeteren.
- Zelfbewerend leren: Weg van zwaar gelabelde datasets, zelf begeleiden leren, kunnen modellen leren van onbewerkte gegevens op dezelfde manier als mensen, vastleggen …
