Met de Zensors-app kun je live camerabewaking crowdsourcen

Als je het gevoel hebt dat je ogen in je achterhoofd nodig hebt, is daar een crowdsourcing-app voor.

Zensors is een smartphone-applicatie die een interessegebied kan volgen met behulp van een camera, crowdsourced workers en kunstmatige intelligentie.

Het idee achter Zensors, ontwikkeld door onderzoekers van Carnegie Mellon University en University of Rochester, is om elke camera op een vaste locatie te gebruiken om veranderingen te detecteren in wat wordt gecontroleerd, bijvoorbeeld of de voerbak van een huisdier leeg is, en gebruikers automatisch te informeren.

De ontwikkelaars zeggen dat het een goedkope, toegankelijke manier is om sensoren aan de omgeving toe te voegen, als onderdeel van de stap naar het bouwen van slimme huizen en slimme steden.

Het project, dat deze week werd gepresenteerd op de Computer-Human Interaction Conference (CHI) 2015 in Seoul, is gebaseerd op eenvoudige gebruikersvragen die in alledaagse taal zijn geschreven over het gebied dat wordt bewaakt.

Een vraag kan bijvoorbeeld zijn: staat er een auto op de parkeerplaats? De aanwezigheid van een auto zou een positieve reactie in de waarschuwing naar de gebruiker veroorzaken, die via e-mail of sms kan worden verzonden.

De camera kan de beeldsensor zijn in elk mobiel apparaat, op voorwaarde dat deze is ingesteld om iets te bewaken, of een webcam, beveiligingscamera of een andere aangesloten camera. Het zal beelden vastleggen met een door de gebruiker ingesteld interval.

Gebruikers selecteren eerst een interessegebied in het zicht van de camera door het met een vinger op een touchscreen te omcirkelen - dat is bedoeld om de bewaking te beperken en de privacy te beschermen van mensen die mogelijk een deel van het frame binnenlopen.

Vervolgens wordt een vraag ingevoerd in de Zensors-app en wordt de bewaking van de afbeeldingen uitbesteed aan internet. Overbodige afbeeldingen waarin niets is veranderd, worden automatisch genegeerd.

De mensen die de eerste monitoring uitvoeren, kunnen medewerkers zijn van een callcenter of een outsourcingdienst zoals Amazon's Mechanical Turk, die werd gebruikt in de CMU-studie. Wanneer de monitoren besluiten dat de vraag bevestigend beantwoord wordt, verandert al snel een grafiek in de app; het kan ook waarschuwingen naar gebruikers sturen.

Zensors wordt echter interessant wanneer het proces automatisch wordt. Na een bepaalde periode van menselijke monitoring kunnen machine learning-algoritmen in de software leren wanneer aan een bepaalde voorwaarde is voldaan. Ze kunnen bijvoorbeeld leren herkennen dat de voerbak van een huisdier leeg is.

Om de nauwkeurigheid van de algoritmen te garanderen, zou het systeem periodiek worden gecontroleerd door werknemers, wat een meer praktische rol zou kunnen spelen als het bewaakte gebied een onverwachte verandering zou ondergaan.

Computerzichthulpmiddelen kunnen ook worden toegevoegd aan de gegevensverwerking, waardoor het systeem taken kan uitvoeren zoals het tellen van auto's of mensen in een bepaald gebied.

Tijdens een demonstratie werd een smartphone met Zensors open op tafel gelegd. Er werd een vraag gesteld: 'Is er een hand?' Nadat hij zijn hand over de camera van de telefoon had gehouden, veranderde de grafiek van de app, waaruit bleek dat Mechanische Turk-arbeiders van ver hadden geantwoord. De onderzoekers gaven de netwerklatentie de schuld dat het antwoord ongeveer 30 seconden in beslag nam.

Met een beter reactievermogen kon Zensors worden gebruikt in een verscheidenheid aan zakelijke en thuistoepassingen. Een restaurantmanager kan het gebruiken om te leren wanneer de bril van klanten moet worden bijgevuld, en beveiligingsbedrijven kunnen het gebruiken voor automatische bewaking.

"Voor zover ik weet, zijn wij de eersten die de menigte combineren met machine learning-training en dit daadwerkelijk doen", zegt Gierad Laput, een promovendus bij het Human-Computer Interaction Institute van Carnegie Mellon, die ook nieuwe smartphone-interfaces liet zien bij CHI.

De kosten van menselijke monitoring bedragen volgens de onderzoekers 2 cent per beeld. Het kost ongeveer US $ 15 aan door mensen gescreende gegevens om de algoritmen te trainen zodat ze het kunnen overnemen.

Als een programmeur daarentegen computerzichtsoftware schrijft voor een sensor die een eenvoudige ja of nee-vraag beantwoordt, kan dit meer dan een maand duren en duizenden dollars kosten.

"Natuurlijke taalverwerking, machine learning en computervisie zijn drie van de moeilijkste problemen in de informatica", zegt Chris Harrison, assistent-professor mens-computerinteractie bij CMU. “De menigte laat ons in feite veel daarvan omzeilen. Maar we laten het publiek gewoon het bootstrappingwerk doen en we krijgen nog steeds de voordelen van machine learning. ”

De onderzoekers zijn van plan de Zensors-app, nu in bèta, te blijven verbeteren en vervolgens voor het publiek beschikbaar te stellen.

Word lid van de Network World-gemeenschappen op Facebook en LinkedIn om commentaar te geven op onderwerpen die voorop staan.