Headset laat stommen praten

MIT-onderzoekers Arnav Kapur, Shreyas Kapur en Pattie Maes hebben een bizarre Headset gemaakt waarmee je kan communiceren zonder te spreken. De nieuwe computerinterface werkt volledig handenvrij en zonder stem, maar leest in tegenstelling tot wat je dacht evenmin op je hersengolven. In plaats daarvan is de techniek gebaseerd op iets wat subvocalisatie of stille spraak wordt genoemd – wat je doet als je woorden in je hoofd zegt maar deze niet uitspreekt. De AlterEgo bestaat uit een draagbare headset die als het ware rond het oor en de kaak van de drager gewikkeld is, en uit een computersysteem dat de gegevens die door de headset ontvangen worden vervolgens vertaalt.

Hoofdonderzoeker Arnav Kapur van het MIT Media Lab noemt het nieuwe apparaat niet Artificiële maar Vermeerderde Intelligentie. “Ons idee was een computerplatform te bouwen dat inwendig werkt, dat mens en machine op een of andere manier versmelt en dat aanvoelt als een intern verlengstuk van onze eigen cognitie.” Bent u nog mee? Het systeem werkt een beetje als een myoëlektrische prothese. Wanneer je van plan bent een handeling uit te voeren, sturen je hersenen elektrische signalen naar je spieren om ze te vertellen wat ze moeten doen. Bij een prothese wordt elektromyografie gebruikt om die elektrische signalen te capteren en vervolgens te vertalen in signalen die de robotprothese vertellen welke handelingen de gebruiker van plan was uit te voeren. Spreken is iets complexer, maar het basisconcept is hetzelfde. Als je aan een woord denkt, stuurt je brein de signalen naar de spieren van je gezicht en keel om dat woord vorm te geven waarna je gaat spreken. Dit wordt subvocalisatie genoemd, en veel mensen doen het tijdens het lezen.

De AlterEgo headset bestaat uit elektrodesensoren die op die gebieden van het gezicht en de kaak van de drager kleven waar die signalen het sterkst en het meest betrouwbaar zijn. Het team van Kapur heeft die plaatsen gedefinieerd. Via botgeleiding ontvangt de koptelefoon die als een wrap rond de buitenkant van het oor van de gebruiker zit, de boodschap. Dus geen draadjes of bluetooth maar geluidtransport direct door het bot van de schedel, waardoor de oren vrij blijven om de wereld om je heen te horen. De sensoren stellen de drager dus in staat om stil met de computer te ‘praten’ door woorden te denken, en de computer praat terug via de hoofdtelefoon – zoals een Google of Siri waarmee je kan praten maar dan zonder dat je in een drukke straat ‘OK Google’ of ‘Hey Siri’ hoeft te zeggen. Je kan dus vragen stellen en antwoorden krijgen, sommetjes maken, de weg zoeken of een interne nota maken. Omdat de neuromusculaire signalen van elke drager iets anders zullen zijn, moet het systeem het “accent” van elke gebruiker leren en vereist het apparaat wel nog steeds kalibratie voor elke individuele gebruiker. Voor het prototype AlterEgo creëerde het onderzoeksteam taken met beperkte vocabulaires van elk ongeveer 20 woorden. Een daarvan was een rekenkundige taak, waarbij de gebruiker grote optelsommen of vermenigvuldigingen kan subvocaliseren. Een andere topepassing was schaken, waarbij de gebruiker subvocale commando’s geeft met behulp van de standaard schaaknummeringsysteem.

Voor elke toepassing, pasten de onderzoekers een neuraal netwerk aan om bepaalde neuromusculaire signalen die aan bepaalde woorden beantwoorden in kaart te brengen. Zodra de basiswoordsignaalconfiguraties in de AlterEgo zijn geprogrammeerd, kan het die informatie bewaren, zodat het aanpassen voor nieuwe gebruikers een veel eenvoudiger proces wordt. De onderzoekers testten AlteEgo uit op 10 gebruikers. De kalibratie voor rekenkundige taken het kalibreren aan hun eigen neurofysiologie duurde 15 minuten, de taak zelf nam 90 minuten in beslag. De foutenmarge was 8%. Wat volgens Kapur bij met regelmatig gebruik zou verbeteren. Op dit ogenblik werkt men aan complexere gesprekken. Kapur. “Ik denk dat we op een dag een volledig gesprek zullen kunnen voeren, wat enorme gevolgen zal hebben, vooral als we een communicatie van mens tot mens kunnen bewerkstelligen. En daar liggen de eerste medische toepassingen in het verschiet. Stemlozen zullen op die manier kunnen communiceren, ervan uitgaande dat ze nog steeds gebruik maken van de spieren in hun kaak en gezicht. Het team presenteerde hun onderzoek tijdens de Proceedings of the 2018 Conference on Intelligent User Interface, een conferentie die op 7-11 maart in Japan werd gehouden. Kapur ziet u hier aan het werk https://youtu.be/RuUSc53Xpeg

Marc van Impe

Bron: MediQuality

It can be read in full online here. https://dam-prod.media.mit.edu/x/2018/03/23/p43-kapur_BRjFwE6.pdf

Advertenties

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit /  Bijwerken )

Google+ photo

Je reageert onder je Google+ account. Log uit /  Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit /  Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit /  Bijwerken )

w

Verbinden met %s