Met machine learning kun je politici eindelijk laten zeggen wat je wilt

Iedereen die naar een politiek debat heeft gekeken, heeft waarschijnlijk gewild dat ze de woorden die uit de mond van een kandidaat komen, zouden kunnen beïnvloeden. Nu maakt machine learning dat mogelijk - althans tot op zekere hoogte.

Onderzoekers van de Universiteit van Washington hebben een manier gevonden om volledig interactieve, 3D digitale persona's te creëren uit fotoalbums en video's van beroemde mensen zoals Tom Hanks, Barrack Obama, Hillary Clinton en George W. Bush. Uitgerust met die 3D-modellen, konden ze vervolgens de stem, uitdrukkingen en gevoelens van een andere persoon opleggen, waardoor de modellen in wezen werden weergegeven als digitale 3D-poppen.

"Stel je voor dat je een gesprek kunt voeren met iedereen die je eigenlijk niet persoonlijk kunt ontmoeten - LeBron James, Barack Obama, Charlie Chaplin - en met hen kunt communiceren", zegt Steve Seitz, een UW-professor computerwetenschappen en techniek.

Om dergelijke persona's te construeren, gebruikte het team algoritmen voor machine learning om ongeveer 200 internetafbeeldingen te maken die in de loop van de tijd van een bepaalde persoon in verschillende scenario's en poses zijn genomen. Vervolgens ontwikkelden ze technieken om expressie-afhankelijke texturen vast te leggen - kleine verschillen die optreden wanneer een persoon lacht of verbaasd kijkt of bijvoorbeeld zijn of haar mond beweegt.

Door de lichtomstandigheden over verschillende foto's te manipuleren, ontwikkelden ze een nieuwe aanpak om de verschillen tussen de kenmerken en uitdrukkingen van de ene persoon dicht op het gezicht van de andere persoon in kaart te brengen, waardoor het mogelijk werd om het digitale model te "besturen" met een video van een andere persoon.

Onderstaande video legt meer uit over het onderzoek. 

'Hoe breng je de prestaties van één persoon in kaart op het gezicht van iemand anders zonder hun identiteit te verliezen?' zei Seitz. 'Dat is een van de interessantere aspecten van dit werk. We hebben laten zien dat je de uitdrukkingen en mond en bewegingen van George Bush kunt hebben, maar het lijkt nog steeds op George Clooney. '

De technologie is gebaseerd op de vooruitgang in 3D-gezichtsreconstructie, tracking, uitlijning, multi-texture modellering en poppenspel die de afgelopen vijf jaar zijn ontwikkeld door een onderzoeksgroep onder leiding van UW-assistent-professor computerwetenschappen en engineering Ira Kemelmacher-Shlizerman. De resultaten worden volgende week gepresenteerd in een paper op de International Conference on Computer Vision in Chili.

Het onderzoek is gefinancierd door Samsung, Google, Intel en de University of Washington.

Word lid van de Network World-gemeenschappen op Facebook en LinkedIn om commentaar te geven op onderwerpen die voorop staan.