126288 News
126288
News

Wat AI-systemen missen dat baby’s wél snappen: de onzichtbare laag van menselijke communicatie

Kunstmatige intelligentie (AI) kan taal niet volledig begrijpen – en dat is iets waar mensen nu pas echt grip op beginnen te krijgen. AI is inmiddels diep verweven met ons dagelijks leven, of we dat nu willen of niet. Van sociale mediaplatforms tot onze telefoons: AI-chatbots zijn tegenwoordig grotendeels geïntegreerd en worden dagelijks gebruikt om taken te vereenvoudigen en informatie op te zoeken, dankzij tools zoals ChatGPT.

Maar hoewel mensen taal gebruiken – zowel gesproken als in gebarentaal – om dingen te begrijpen, blijkt dat generatieve AI dat niet kan, ondanks de schijn. AI-pionier en Nobelprijswinnaar Geoffrey Hinton zei eerder: “Wat me echt heeft verrast, is hoe goed neurale netwerken zijn geworden in het begrijpen van natuurlijke taal – dat ging veel sneller dan ik had verwacht... En ik blijf verbaasd dat ze echt lijken te begrijpen wat ze zeggen.”

“Taalcommunicatie vindt meestal face-to-face plaats"

Maar Veena Dwivedi, professor aan de afdeling Psychologie en het Centrum voor Neurowetenschappen van Brock University, stelt dat dit niet klopt. Volgens haar wordt tekst op een scherm vaak verward met taal, terwijl ze weliswaar verwant zijn, maar niet hetzelfde betekenen. Dwivedi stelt: “Taalcommunicatie vindt meestal face-to-face plaats, in een gedeelde omgevingscontext tussen spreker en luisteraar, met aanvullende signalen zoals toon en intonatie van de stem, oogcontact en gezichts- en emotie-uitdrukkingen.” (lees verder onder de afbeelding)

Wat AI-systemen missen dat baby’s wél snappen: de onzichtbare laag van menselijke communicatie

Betekenis en interpretatie

Om dit te verduidelijken geeft ze het voorbeeld van de zin “Ik ben zwanger”, die afhankelijk van de context heel verschillend geïnterpreteerd kan worden – bijvoorbeeld door een getrouwd stel dat worstelt met vruchtbaarheidsproblemen, versus een tienerstel dat met een ongeplande zwangerschap te maken krijgt. Ze zegt: “In elk geval kent de ontvanger een andere betekenis – en interpretatie – toe aan exact dezelfde zin.”

"Er is geen emotionele context"

Dwivedi legt ook uit dat neurale netwerken in AI verwijzen naar algoritmes en niet verward mogen worden met de biologische hersennetwerken van mensen. Dus hoewel een computer of AI-chatbot in staat is om te reageren op taal in tekstvorm, ontbreekt het deze systemen aan de emotionele context die nodig is om echt tot menselijk begrip te komen. Dwivedi benadrukt dat zelfs baby’s contextuele aanwijzingen uit taal kunnen oppikken, en dat wij als mensen meer gebruiken dan alleen gesproken woorden om betekenis en begrip af te leiden – iets wat AI niet kan bereiken.

(Bron: Indy100 - Afbeeldingen: Freepik)

0 claps
0 bezoekers

Plaats reactie

666

0 reacties

Laad meer reacties

Je bekijkt nu de reacties waarvoor je een notificatie hebt ontvangen, wil je alle reacties bij dit artikel zien, klik dan op onderstaande knop.

Bekijk alle reacties