Công nghệ nhận dạng cảm xúc (ERT) trên thực tế là một ngành công nghiệp trị giá hàng tỷ đô la đang phát triển nhằm mục đích sử dụng AI để phát hiện cảm xúc từ các biểu hiện trên khuôn mặt. Tuy nhiên, hệ thống nhận dạng cảm xúc đang gây ra khá nhiều tranh cãi.
Nhiều công ty sử dụng ERT để kiểm tra phản ứng của khách hàng đối với sản phẩm của họ, từ thực phẩm đến công nghệ điện tử. Và công nghệ này cũng có thể được sử dụng trong việc tuyển dụng lao động, hỗ trợ an ninh sân bay để nhận diện các đối tượng tinh nghi, kiểm soát đường biên giới, giúp đỡ cảnh sát xác định tội phạm hoặc trong giáo dục để giám sát độ chăm chỉ của học sinh.
Công nghệ nhận dạng khuôn mặt đang nhận được sự quan tâm của công chúng. Bộ phim đoạt giải thưởng Coded Bias, được phát hành gần đây trên Netflix, ghi lại rằng nhiều công nghệ nhận dạng khuôn mặt không nhận diện chính xác những khuôn mặt có nước da sẫm màu. Nhóm nghiên cứu quản lý ImageNet, một trong những bộ dữ liệu lớn nhất và quan trọng nhất được sử dụng để đào tạo nhận dạng khuôn mặt, gần đây đã buộc phải làm mờ 1,5 triệu hình ảnh trước những lo ngại về quyền riêng tư.
Những ý kiến về quyền riêng tư của thuật toán và bộ dữ liệu trong công nghệ nhận dạng khuôn mặt đã khiến các công ty lớn như Microsoft, Amazon và IBM phải ngừng phát hành sản phẩm. Và công nghệ này phải đối mặt với những thách thức pháp lý liên quan đến việc ứng dụng trong việc trị an ở Vương quốc Anh. Tại EU, một liên minh gồm hơn 40 tổ chức xã hội dân sự đã kêu gọi cấm hoàn toàn công nghệ nhận dạng khuôn mặt.
Giống như các hình thức nhận dạng khuôn mặt khác, ERT đặt ra nhiều vấn đề về sự thiên vị, quyền riêng tư và giám sát. Ngoài ra, công nghệ này làm dấy lên một mối quan tâm khác: khoa học về cảm xúc. Hầu hết các ERT đều dựa trên lý thuyết “cảm xúc cơ bản” cho rằng cảm xúc được kết nối chặt chẽ về mặt sinh học và được mọi người ở khắp mọi nơi thể hiện theo cách giống nhau.
Nghiên cứu về nhân chủng học cho rằng cảm xúc được thể hiện khác nhau giữa các nền văn hóa và xã hội. Vào năm 2019, Hiệp hội Khoa học tâm lý đã tiến hành xem xét các bằng chứng và kết luận: không có sự hỗ trợ khoa học nào cho giả định rằng trạng thái cảm xúc của một người có thể dễ dàng suy ra từ các chuyển động trên khuôn mặt của họ. Nói tóm lại, ERT được xây dựng trên một nền tảng khoa học không chắc chắn.
Ngoài ra, giống như các dạng công nghệ nhận dạng khuôn mặt khác, ERT được mã hóa với sự phân biệt chủng tộc. Một nghiên cứu chỉ ra rằng các hệ thống luôn cho ra kết quả khuôn mặt của người da đen tức giận hơn khuôn mặt của người da trắng, bất kể biểu hiện của người đó như thế nào.
Ngay cả khi công nghệ nhận dạng khuôn mặt có thể được loại bỏ thành kiến chủng tộc và đưa ra kết quả chính xác cho tất cả mọi người, nó vẫn có thể tạo nên sự không khách quan. Chúng ta nhận thấy rằng những tác động khác biệt khi công nghệ nhận dạng khuôn mặt được sử dụng trong các hệ thống chính sách và tư pháp vốn đã phân biệt đối xử với người da màu.
Những thách thức do công nghệ nhận dạng khuôn mặt (bao gồm cả ERT) hiện tại chưa có câu trả lời rõ ràng. Giải quyết các vấn đề của ERT đòi hỏi chúng ta phải chuyển từ đạo đức AI tập trung vào các nguyên tắc trừu tượng sang tập trung vào thực hành và ảnh hưởng đến cuộc sống của con người.
Khi nói đến ERT, chúng ta cần xem xét một cách tổng thể công nghệ gây tranh cãi này về cảm xúc được xây dựng trong các hệ thống và phân tích khả năng gây phân biệt chủng tộc của chúng. Và chúng ta cũng cần đưa ra câu hỏi: ngay cả khi ERT có thể nhận diện chính xác cảm xúc bên trong của mọi người, chúng ta có chấp nhận sự giám sát chặt chẽ như vậy trong cuộc sống của mình không?
Duy Anh (T/H)