MIT’nin Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı (CSAIL), KUKA isimli robot kola eklediği GelSight isimli dokunsal sensör sayesinde yapay zekaya görsel ve dokunsal bilgi arasındaki ilişkiyi öğretmeyi başardı.
Araştırma ekibi yapay zekaya nesneleri dokunarak nasıl tanımlayabileceğini öğretmek için kumaş, tamir aletleri ve ev eşyaları gibi 200 nesneye ait 12.000 videoyu kayıt altına aldı. Videolar durağan görüntülere bölündü ve ortaya çıkan veri yapay zekanın dokunsal ve görsel verileri bir araya getirilmesi için kullanıldı.
Sistem üzerinde çalışan araştırmacılardan Yunzhu Li, üzerinde çalıştıkları prototip robot kolun dokunduğu yüzeyin yapısına göre keskin veya düz olduğunu hissedebildiğini açıklıyor. Görme duyusunu, hissetme duyusuyla bir araya getiren bilim insanları, nesneleri tanımlama konusunda robotu güçlendirebileceklerini, böylelikle nesneleri kavramayı ve manipüle etmeyi gerektiren görevlerde ihtiyaç duyulan verinin azaltılabileceğini öngörüyor.
Gelişmenin robot teknolojileri açısından önemini vurgulayan araştırmacılar, robot kolun zamanla bir fincanı nasıl ve hangi açıdan tutması gerektiği gibi konuları kavrayabileceği, yumuşak ve sert objeleri birbirinden ayırt edebileceğini söylüyor.
Şu an için robot sadece test ortamında nesneleri tanımlayabiliyor. Bir sonraki adım, robotun daha farklı görevleri yerine getirebilmesi için yeterli veri tabanını sağlamak.