Theo ZDNet, trong tuyên bố gần đây của mình, Fujitsu đã phát triển thành công giải pháp theo dõi cảm xúc người dùng tốt hơn bằng công nghệ nhận diện khuôn mặt.
Các phòng thí nghiệm của công ty này đã đưa ra một công nghệ dựa trên trí tuệ nhân tạo (AI). Nó có thể theo dõi những thay đổi trong biểu hiện người dùng như hồi hộp hoặc bối rối.
Trước đó, các công ty như Microsoft đã sử dụng một số công cụ tương tự để nhận diện nét mặt. Tuy nhiên, phần lớn những công cụ hiện nay đều bị giới hạn ở 8 trạng thái cơ bản gồm vui vẻ, buồn bã, sợ hãi, chán ghét, giận dữ, ngạc nhiên, hy vọng và tin tưởng.
Trong khi đó, Công nghệ mới của Fujitsu hoạt động bằng cách xác định các đơn vị hành động khác nhau (AU). Theo đó, một số chuyển động cơ mặt nhất định mà chúng ta thực hiện sẽ có thể được liên kết với các cảm xúc cụ thể.
Ví dụ nếu AU xác định 2 hành động "gò má được nâng lên" và "phía góc môi được kéo giãn" xảy ra cùng lúc, AI sẽ đưa ra kết luận rằng người dùng được phân tích có trạng thái hạnh phúc.
Đại diện Fujitsu cho biết, vấn đề với công nghệ hiện tại là AI cần được đào tạo bằng bộ dữ liệu khổng lồ cho mỗi AU. Nó cần biết cách nhận biết AU từ mọi góc độ và vị trí có thể. Nhưng chúng tôi hiện không có đủ kho hình ảnh để phục vụ nên nó chưa có độ chính xác cao.
Tuy nhiên, thay vì tạo ra nhiều hình ảnh để huấn luyện AI, Fujitsu đã tìm ra một công cụ để trích xuất nhiều dữ liệu hơn từ một bức ảnh.
Theo đó, nhờ vào thứ được tạm gọi là "quá trình chuẩn hóa", nó có thể chuyển đổi hình ảnh được chụp từ một góc cụ thể thành ảnh chụp chính diện.
Sau khi được phóng to, thu nhỏ hoặc xoay một cách thích hợp, ảnh chính diện mới được tạo sẽ cho phép AI phát hiện các AU dễ dàng và chính xác hơn nhiều.
Với cùng một bộ dữ liệu hạn chế, đại diện Fujitsu khẳng định có thể phát hiện nhiều AU hơn, ngay cả trong các bức ảnh được chụp từ một góc xiên chẳng hạn. Khi có lượng AU nhiều hơn, chúng tôi có thể xác định được thêm các cảm xúc có độ phức tạp và tinh tế.