Anthropic cảnh báo việc cài dữ liệu độc hại để làm sai lệch phản hồi của AI dễ dàng hơn nhiều so với tưởng tượng - Ảnh: FREEPIK
Công ty trí tuệ nhân tạo Anthropic, đơn vị phát triển chatbot Claude, vừa công bố nghiên cứu cho thấy việc "đầu độc" mô hình ngôn ngữ lớn (LLM), tức cài dữ liệu độc hại để làm sai lệch phản hồi của Lừa đảo việc làm ở Mỹ tăng hơn 1.000%, AI giăng 'bẫy tuyển dụng' tinh vi chưa từng có
Tuy nhiên Anthropic khẳng định cả mô hình 13 tỉ tham số - được huấn luyện trên lượng dữ liệu gấp hơn 20 lần - và mô hình 600 triệu tham số đều có thể bị xâm nhập chỉ với cùng số lượng nhỏ tài liệu bị "đầu độc".
"Phát hiện này thách thức giả định rằng kẻ tấn công phải kiểm soát một tỉ lệ dữ liệu huấn luyện nhất định. Thực tế họ có thể chỉ cần một lượng cố định rất nhỏ", Anthropic nhấn mạnh.
Công ty cảnh báo những lỗ hổng này có thể gây rủi ro nghiêm trọng cho an ninh của các hệ thống AI và đe dọa ứng dụng công nghệ trong các lĩnh vực nhạy cảm.
Link nội dung: https://www.doanhnghiepvaphattrien.com/anthropic-chi-luong-tai-lieu-nho-cung-du-dau-doc-mo-hinh-ai-khong-lo-a186964.html