Xuất hiện chip mới giúp mắt robot bắt chuyển động nhanh gấp 4 lần con người
Các nhà khoa học tại Trung Quốc phát triển chip mô phỏng thần kinh lấy cảm hứng từ cấu trúc xử lý thị giác trong não bộ, cho phép robot phát hiện chuyển động nhanh gấp bốn lần mắt người và giảm đáng kể độ trễ xử lý.

Nhóm nghiên cứu thuộc Đại học Beihang và Viện Công nghệ Bắc Kinh vừa công bố một con chip mô phỏng thần kinh có khả năng nâng cao đáng kể năng lực thị giác máy. Con chip được thiết kế dựa trên cơ chế hoạt động của nhân gối bên (LGN) trong não người, cấu trúc nằm giữa võng mạc và vỏ não thị giác, đóng vai trò trung chuyển và chọn lọc thông tin hình ảnh.
Theo nhóm nghiên cứu, cơ chế xử lý này cho phép hệ thống tập trung nguồn lực vào những vật thể đang di chuyển nhanh hoặc thay đổi đột ngột. Nhờ mô phỏng nguyên lý đó, chip mới có thể phát hiện chuyển động nhanh gấp bốn lần so với khả năng của mắt người, đồng thời cải thiện hiệu suất phân tích hình ảnh trong môi trường phức tạp.
Khác với đa số hệ thống thị giác robot hiện nay vốn dựa trên camera ghi lại từng khung hình tĩnh rồi phân tích sự thay đổi độ sáng giữa các khung hình, chip mới phát hiện biến đổi ánh sáng theo thời gian thực. Phương pháp truyền thống được đánh giá ổn định nhưng chậm, bởi mỗi khung hình thường cần hơn nửa giây để xử lý. Đối với các ứng dụng yêu cầu phản ứng tức thì như xe tự hành tốc độ cao, độ trễ này có thể tạo ra rủi ro đáng kể.
Trong các thử nghiệm mô phỏng lái xe và điều khiển cánh tay robot thực hiện nhiệm vụ, chip mới giúp giảm khoảng 75% độ trễ xử lý so với phương pháp truyền thống. Đồng thời, độ chính xác theo dõi chuyển động trong các tình huống phức tạp tăng gấp đôi. Nhóm nghiên cứu cho biết việc tích hợp nguyên lý xử lý hình ảnh của não bộ đã giúp tốc độ phân tích video vượt xa giới hạn của thị giác con người.
Công nghệ này được kỳ vọng có thể ứng dụng trong hệ thống tránh va chạm của xe tự hành, theo dõi mục tiêu theo thời gian thực trên máy bay không người lái, cũng như giúp robot nhận biết và phản hồi nhanh với cử chỉ của con người. Tuy vậy, hệ thống vẫn cần dựa vào các thuật toán luồng quang học để tái tạo và diễn giải hình ảnh cuối cùng. Vì vậy, con chip hiện còn gặp khó khăn trong môi trường có quá nhiều chuyển động diễn ra đồng thời. Dù vậy, kết quả nghiên cứu được xem là bước tiến đáng chú ý trong lĩnh vực thị giác máy và robot tự hành.