Robot có thể học cách nhận diện cảm xúc con người
Những nghiên cứu đã cho thấy robot có thể học cách sử dụng những hành động, biểu cảm khuôn mặt và ngữ điệu giọng nói tương tự để nhận biết trạng thái cảm xúc của con người.
Các nhà nghiên cứu đã tìm ra rằng con người có thể nhận biết sự phấn khích, buồn bã, bực tức, và chán nản từ cách người khác hoạt động, ngay cả khi họ không nhìn thấy biểu cảm khuôn mặt hay nghe thấy giọng nói. Những nghiên cứu này cũng gợi ý rằng robot cũng có thể học cách sử dụng những hành động, cùng với biểu cảm khuôn mặt và ngữ điệu nói để nhận biết cảm xúc của con người.

Điều này khơi gợi nên tiềm năng rằng những robot đang được sử dụng để dạy ngôn ngữ thứ hai có thể nhận biết khi học sinh buồn chán hay những robot dịch vụ có thể xác định khi nào con người thấy bực tức hay căng thẳng. TS. Charlotte Edmunds từ Trường Kinh doanh Warwick cho biết: “Một trong những mục tiêu chính của lĩnh vực phát triển tương tác giữa robot-con người là tạo nên những cỗ máy có thể nhận diện cảm xúc của con người và phản ứng theo cảm xúc đó.”

“Những kết quả mà chúng tôi phát hiện được cho thấy kỳ vọng khả quan vào một thuật toán học máy (machine learning), cho phép một con robot có thể nhận diện nhiều cảm xúc và tương tác xã hội bằng hành động, dáng diệu và biểu cảm khuôn mặt.”

Nghiên cứu được tiến hành bởi các nhà khoa học từ Trường Kinh doanh Warwick, Đại học Plymouth, Đại học Radboud, và Phòng thí nghiệm Bristol Robotics ở Đại học West of England. Nó được đăng trên tạp chí Frontiers.

Nhóm các nhà tâm lý học và kỹ sư máy tính ghi hình những cặp trẻ em chơi với một con robot và một máy tính gắn vào một cái bàn với màn hình cảm ứng.

Video được chiếu cho 284 người tham gia nghiên cứu, và được yêu cầu xác định liệu bọn trẻ phấn khích, chán nản hay buồn bã. Họ cũng được hỏi liệu bọn trẻ có hợp tác, cạnh tranh hay một trong số chúng thể hiện vị trí cao hơn trong mối quan hệ.

Một vài ứng viên xem những video gốc. Nhóm thứ hai xem những đoạn phim mô tả lại bằng những “người que” thể hiện những hành động y hệt. Các thành viên của cả hai nhóm đều đưa ra nhận định như nhau về cảm xúc của bọn trẻ.

Các nhà nghiên cứu sau đó huấn luyện một thuật toán học máy để đánh giá đoạn clip, xác định kiểu tương tác xã hội và cảm xúc được bộc lộ, cho phép nó so sánh đứa trẻ nào buồn hơn hay phấn khích hơn.

TS. Edmunds cho biết: “Mục tiêu là nhằm tạo ra một con robot có thể phản ứng với cảm xúc của con người trong những tình huống khó và tự thoát khỏi rắc rối mà không cần phải được điều khiển hay ra lệnh phải làm gì. Điều mà hiện nay chưa thể thực hiện được bởi robot thường đi theo các kịch bản được lập trình.”