Các nhà nghiên cứu Trường Đại học Franklin & Marshall gần đây đã cố gắng phát triển các công cụ tính toán có thể nâng cao hiệu suất của các robot hỗ trợ tương tác xã hội, bằng cách cho phép chúng xử lý các tín hiệu xã hội do con người phát ra và phản hồi tương ứng. Trong một bài báo được xuất bản trước đó trên arXiv và được trình bày tại hội nghị chuyên đề AI-HRI 2021 vào cuối tháng 10, nhóm nghiên cứu đã giới thiệu một kỹ thuật mới có thể cho phép robot tự động phát hiện khi nào sẽ thích hợp để chúng ra tay và thực hiện trợ giúp cho người dùng.
Jason R. Wilson, thành viên thực hiện nghiên cứu, nói với TechXplore: “Tôi quan tâm đến việc thiết kế các robot giúp mọi người thực hiện các công việc hàng ngày, chẳng hạn như nấu bữa tối, học toán hoặc lắp ráp đồ nội thất Ikea. Tôi không muốn thay thế những người trợ giúp những công việc này mà thay vào đó, tôi muốn robot có thể hỗ trợ con người, đặc biệt là trong trường hợp chúng tôi không có đủ người để làm”.
Wilson và các học trò của ông là Phyo Thuta Aung và Isabelle Boucher đặc biệt tập trung vào việc duy trì quyền tự chủ của người dùng trong các thiết kế robot của họ.
Khi con người cần trợ giúp thực hiện một nhiệm vụ nhất định, họ có thể yêu cầu hỗ trợ một cách rõ ràng hoặc truyền đạt rằng họ đang gặp khó khăn một cách ẩn ý đến robot. Ví dụ: họ có thể nói ra những câu như "hmm, tôi không chắc" hoặc bày tỏ sự thất vọng thông qua nét mặt hoặc ngôn ngữ cơ thể của họ… để thông báo rằng họ cần giúp đỡ.
Mục tiêu chính của nghiên cứu gần đây do Wilson, Aung và Boucher thực hiện là cho phép robot tự động xử lý các tín hiệu liên quan đến ánh mắt. Kỹ thuật mà họ tạo ra có thể phân tích các loại tín hiệu khác nhau, bao gồm cả kiểu giọng nói và ánh mắt của người dùng.
Wilson giải thích: “Kiến trúc mà chúng tôi đang phát triển sẽ tự động nhận dạng giọng nói của người dùng và phân tích nó để xác định xem người dùng đang bày tỏ họ muốn hay cần trợ giúp gì. Đồng thời, hệ thống cũng phát hiện các ánh mắt nhìn của người dùng, xác định xem họ có đang thể hiện kiểu nhìn liên quan đến việc cần trợ giúp hay không”.
Khác với các kỹ thuật tăng cường tương tác giữa người và robot khác, phương pháp này không yêu cầu thông tin về nhiệm vụ cụ thể mà người dùng đang hoàn thành. Điều này có nghĩa là có thể dễ dàng áp dụng cho các robot hoạt động trong các bối cảnh thế giới thực khác nhau và được đào tạo để giải quyết các nhiệm vụ khác nhau.
Mặc dù mô hình do Wilson và các đồng nghiệp của ông tạo ra có thể nâng cao trải nghiệm người dùng mà không cần đến các chi tiết cụ thể cho từng tác vụ, do đó các nhà phát triển vẫn có thể đưa vào các chi tiết này để nâng cao độ chính xác và hiệu suất của robot. Trong các thử nghiệm ban đầu, các kết quả thu được rất hứa hẹn, có thể sớm được sử dụng để cải thiện hiệu suất của cả robot tương tác xã hội hiện có và rô bốt tương tác xã hội mới được phát triển.
Wilson cho biết: “Hiện chúng tôi đang tiếp tục khám phá những tín hiệu xã hội nào sẽ cho phép robot xác định thời điểm người dùng cần trợ giúp và mức độ họ muốn được trợ giúp. Một hình thức giao tiếp phi ngôn ngữ quan trọng mà chúng tôi chưa sử dụng là biểu hiện cảm xúc. Cụ thể hơn, chúng tôi đang xem xét phân tích các biểu hiện trên khuôn mặt để xem khi nào người dùng cảm thấy thất vọng, buồn chán hoặc cảm thấy thách thức”.
P.T.T (NASATI), theo https://techxplore.com/news/2021-11-technique-robots-humans.html, 10/11/2021