blog | werkgroep caraïbische letteren

Het einde van de gebruikersinterface

door Johan Herrenberg

Bij het woord ‘radar’ zullen velen meteen grote, ronddraaiende schotels voor zich zien, hun bundels gericht op het heelal. Of ze denken aan WO II, waarin deze technologie vooral in de duikbotenoorlog ervoor zorgde dat Europa niet Duitstalig is geworden, maar slechts ernstig verengelst. Mijn vader was in 1948 nooit uit de kolonie Suriname naar Nederland gekomen, want ook zwarten stonden op Adolfs vernietigingslijstje. Nu schrijf ik dit stuk dus lekker hier in Delft. Radar, bedankt.

 

Johan Herrenberg. Foto © Gábor Pusztai

In ons nog jonge 2019 blijkt deze uit 1888 daterende technologie een verrassende nieuwe toepassing te hebben gekregen, eentje die onze gretige interactie met apparaten drastisch zou kunnen veranderen en vereenvoudigen. Al dat getik, gesleep, geswipe, gedruk en gescroll wordt verleden tijd. Als het aan Google ligt tenminste. Ik doel hier op hun Project Soli. In 2015 werd het al gepresenteerd, maar de laatste paar jaren bleef het wat stil door een frequentiegeschil met Facebook en een voor de VS te hoog benodigd energieniveau van de sensor. Er werd dus gevreesd dat Project Soli zou moeten worden afgeblazen, een lot dat Googleprojecten wel vaker treft. Maar nu heeft de Amerikaanse telecomwaakhond, de FCC, het project het groene licht gegeven. En ook Facebook geeft geen problemen.

Maar wat is Project Soli? Welnu, het mogelijke einde van de gebruikersinterface. Een radar is een elektromagnetische sensor voor het detecteren en lokaliseren van objecten. Wat nu, dachten ze op Googles innovatieve ATAP-lab (Advanced Technology and Projects), als je een radarsensor miniaturiseert en op een chip van 8 bij 10 mm zet? En als die sensor vanuit een apparaat met zijn golven onze driedimensionale handgebaren zou kunnen detecteren en deze door middel van machine learning en algoritmen zou kunnen interpreteren en in bedieningscommando’s omzetten? Het maakt knoppen overbodig, een aanraakscherm, stylus, draaischijf. We zouden op (korte) afstand onze wearable, tablet, smartphone aan kunnen sturen, zelfs onze auto. Onze handen zouden spreken.

Op de site van Project Soli zag ik frappante voorbeelden uit de praktijk. Wrijven of glijden met je wijsvinger over je duim, met je duim drukken op je wijsvinger, het laat je door vensters lopen, doet een knop draaien, enzovoorts. Nog frappanter vond ik de successen die onderzoekers aan de Schotse Universiteit van St. Andrews hadden geboekt. Hun project RadarCat kon met Soli moeiteloos objecten en materialen onderscheiden (hout, stof, papier, metaal), en vaststellen of een glas al dan niet gevuld was. En als je een met radar uitgeruste telefoon tegen een willekeurig lichaamsdeel hield, verscheen er relevante informatie.

Aandachtspunten zijn er. Ontwerpers zullen een gemeenschappelijke gebarenbibliotheek moeten gebruiken, zodat Soli overal hetzelfde werkt. Hoe storingsgevoelig is het? En wat betekent het voor de batterijduur?

Maar voor mij is Soli zeker een magische knip voor de neus waard.

[Overgenomen van tw.nl, donderdag 28 februari 2019. J.Z. Herrenberg is te gast op de Caraïbische Letterendag in de OBA, 9 november 2019]

Your comment please...

  • RSS
  • Facebook
  • Twitter