AI của Apple có tên ReALM, được phát triển nhằm cải tiến cách trợ lý giọng nói hiểu và phản hồi câu lệnh của con người một cách tự nhiên.
Trong tài liệu nghiên cứu đăng trên website của Đại học Cornell, Apple mô tả cách mô hình ngôn ngữ lớn xử lý các tham chiếu, trong đó có việc giải mã những tham chiếu không rõ ràng, cũng như hiểu bối cảnh hội thoại, giúp tương tác trực quan và tự nhiên hơn.
“Lời nói của con người thường chứa những tham chiếu mơ hồ như ‘họ’ hoặc ‘cái đó’, vốn có ý nghĩa tùy theo ngữ cảnh. Có thể hiểu ngữ cảnh là điều cần thiết đối với một trợ lý giọng nói, cho phép người dùng trò chuyện và truyền đạt yêu cầu của họ một cách tự nhiên”, các chuyên gia của Apple cho hay.
Đối với trợ lý ảo như Siri, khả năng hiểu tham chiếu trước đây là một thách thức lớn, bị hạn chế bởi việc diễn giải nhiều loại tín hiệu bằng lời nói, thông tin hình ảnh. Hệ thống ReALM giải quyết vấn đề bằng cách chuyển đổi quy trình phân giải tham chiếu phức tạp thành mô hình ngôn ngữ thuần túy. Từ đó, nó có thể hiểu tham chiếu đến các yếu tố hình ảnh hiển thị trên màn hình và đưa sự hiểu biết này vào luồng đàm thoại.
Các nhà nghiên cứu của Apple cho biết chiến lược này, kết hợp việc tinh chỉnh cụ thể mô hình ngôn ngữ cho các tác vụ phân giải tham chiếu, vượt qua các phương pháp truyền thống, trong đó có GPT-4 của OpenAI.
ReALM cho phép người dùng tương tác với trợ lý ảo hiệu quả hơn bằng cách tham khảo những gì hiển thị trên màn hình của họ mà không cần hướng dẫn chi tiết, chính xác. Điều này giúp trợ lý giọng nói trở nên hữu ích hơn trong nhiều tình huống khác nhau, như giúp tài xế điều khiển hệ thống thông tin giải trí trong khi lái xe.
Apple đã phát hành một số tài liệu nghiên cứu về AI. Tháng trước, công ty tiết lộ một phương pháp mới để đào tạo mô hình ngôn ngữ lớn tích hợp liền mạch văn bản và hình ảnh. Apple dự kiến công bố loạt tính năng AI tạo sinh trên sản phẩm của hãng tại sự kiện WWDC diễn ra tháng 6.
Nguồn : vnexpress.net
Bình luận