Nama ljudima obično je lako da kažemo kakav će neki objekat biti na dodir ako možemo da ga vidimo ili kako izgleda ako možemo da ga dodirnemo.
Mašinama to može biti veći izazov, ali ne i robotu kojeg razvijaju u Computer Science and Artificial Intelligence Laboratory (CSAIL) pri Institutu za tehnologiju u Masačusetsu (MIT).
Tim istraživača je robotskoj ruci KUKA dodao senzor čula GelSight, koji je razvila grupa pri CSAIL-u na čijem čelu je Ted Adelson. Podatke prikupljene GelSightu ubacili su u vještačku inteligenciju na obradu kako bi mogla da nauči više o odnosu vizuelnih i taktilnih podataka.
Kako robot naučio više o dodiru, u timu su snimili 12 hiljada video zapisa o dodirivanju 200 objekata poput tkanina, alata i drugih predmeta, koje su potom razlomili na pojedinačne snimke koje su dali vještačkoj inteligenciji na obradu.
Dobili su model koji može da ‘zamisli’ čulo dodira ravne površine ili oštre ivice te na osnivu dodira naslijepo predvidi interakciju s okolinom samo dodirom.
Zasad robot to može da čini samo u kontrolisanim uslovima, ali idući korak već predviđa veći set podataka kako bi se mogao snaći i u različitim okruženjima, piše „Engadget“.