Khi AI có đôi mắt và đôi tay: Máy móc bắt đầu thao tác vật thể như con người

Minh Nguyệt
Minh Nguyệt
Phản hồi: 0

Minh Nguyệt

Intern Writer
Trong cuộc sống hàng ngày, việc với tay lấy một cốc cà phê từ bàn gần như là điều hiển nhiên. Chúng ta kết hợp nhiều loại cảm giác khác nhau như thị giác (nhìn thấy khoảng cách đến cốc) và xúc giác (cảm nhận) một cách tự nhiên. Thế nhưng, việc tái tạo điều này trong trí tuệ nhân tạo (AI) lại không đơn giản. Một nhóm nghiên cứu quốc tế đã phát triển một phương pháp mới, tích hợp thông tin thị giác và xúc giác để điều khiển các cánh tay robot, đồng thời phản ứng linh hoạt với môi trường.

So với các phương pháp truyền thống chỉ dựa vào thị giác, phương pháp này đã đạt được tỷ lệ thành công cao hơn trong các nhiệm vụ thực hiện. Những kết quả đầy hứa hẹn này thể hiện một bước tiến quan trọng trong lĩnh vực AI vật lý đa phương thức. Chi tiết về phát kiến này đã được công bố trên tạp chí IEEE Robotics and Automation Letters. Machine learning (học máy) có thể hỗ trợ trí tuệ nhân tạo trong việc học hỏi các mẫu chuyển động của con người, cho phép robot tự động thực hiện các công việc hàng ngày như nấu ăn và dọn dẹp.
physical-ai-uses-both.jpg

Chẳng hạn, ALOHA (A Low-cost Open-source Hardware System for Bimanual Teleoperation) là một hệ thống được phát triển bởi Đại học Stanford, cho phép điều khiển và học hỏi từ xa với chi phí thấp cho các robot tay đôi. Cả phần cứng và phần mềm đều là mã nguồn mở, giúp nhóm nghiên cứu có thể dựa trên nền tảng này để cải thiện. Tuy nhiên, những hệ thống này chủ yếu chỉ dựa vào thông tin từ thị giác, do đó, chúng thiếu đi khả năng phân biệt xúc giác mà con người có thể cảm nhận, chẳng hạn như phân biệt kết cấu của vật liệu hoặc xác định mặt trước và mặt sau của các đối tượng.

Đơn cử, sẽ dễ dàng hơn trong việc nhận biết đâu là mặt trước hoặc mặt sau của Velcro khi chúng ta chỉ cần chạm vào nó, thay vì dựa vào hình thức bên ngoài. Việc chỉ dựa vào thị giác mà không có các loại thông tin khác là một hạn chế đáng tiếc. "Để khắc phục những hạn chế này, chúng tôi đã phát triển một hệ thống cho phép đưa ra quyết định vận hành dựa trên kết cấu của các đối tượng mục tiêu - điều mà khó có thể xác định chỉ từ thông tin thị giác," Mitsuhiro Hayashibe, giáo sư tại Trường Kỹ thuật của Đại học Tohoku cho biết. "Thành tựu này đại diện cho một bước tiến quan trọng hướng tới việc hiện thực hóa AI vật lý đa phương thức, tích hợp và xử lý nhiều giác quan như thị giác, thính giác và xúc giác - giống như chúng ta."

Hệ thống mới này được gọi là "TactileAloha". Nhóm nghiên cứu đã phát hiện rằng robot có thể thực hiện các thao tác tay đôi một cách phù hợp ngay cả trong những nhiệm vụ mà sự khác biệt giữa mặt trước và mặt sau cũng như độ bám dính là rất quan trọng, như là với Velcro và dây buộc zip. Họ đã tìm ra rằng bằng việc áp dụng công nghệ biến đổi thị giác-xúc giác, robot AI vật lý của họ có khả năng điều khiển linh hoạt và thích ứng hơn. Phương pháp AI vật lý cải tiến có khả năng thao tác chính xác các đối tượng, bằng cách kết hợp nhiều loại thông tin cảm giác để tạo ra những chuyển động thích nghi và phản hồi.

Có vô vàn ứng dụng thực tiễn có thể từ những loại robot này để hỗ trợ chúng ta trong cuộc sống hàng ngày. Những đóng góp nghiên cứu như TactileAloha đưa chúng ta tiến gần hơn một bước nữa tới việc những người bạn robot sẽ trở thành một phần tự nhiên không thể thiếu trong đời sống. Nhóm nghiên cứu bao gồm các thành viên từ Trường Kỹ thuật của Đại học Tohoku và Trung tâm Sản xuất Trang phục Biến đổi tại Công viên Khoa học Hồng Kông, cùng với Đại học Hồng Kông. Thông tin thêm: Ningquan Gu et al, TactileAloha: Learning Bimanual Manipulation With Tactile Sensing, IEEE Robotics and Automation Letters (2025). DOI: 10.1109/LRA.2025.3585396.

Nguồn tham khảo: Techxplore
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9raGktYWktY28tZG9pLW1hdC12YS1kb2ktdGF5LW1heS1tb2MtYmF0LWRhdS10aGFvLXRhYy12YXQtdGhlLW5odS1jb24tbmd1b2kuNjk5NjMv
Top