(Ảnh: Getty images/TTXVN)
Hai công ty sẽ hợp tác với Viện An toàn AI Mỹ, một đơn vị thuộc Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) - một cơ quan liên bang Mỹ. Đây được xem là một bước tiến quan trọng trong việc quản lý và giám sát công nghệ AI, vốn đang là mối quan tâm lớn kể từ khi ChatGPT của OpenAI ra đời.
Elizabeth Kelly, Giám đốc Viện An toàn AI Mỹ, nhấn mạnh: "Đây mới chỉ là khởi đầu, nhưng là một cột mốc quan trọng trong nỗ lực quản lý có trách nhiệm tương lai của AI".
Theo thỏa thuận, Viện An toàn AI Mỹ sẽ cung cấp phản hồi cho cả hai công ty về các cải tiến an toàn tiềm năng đối với mô hình của họ, cả trước và sau khi các mô hình này được công bố rộng rãi. Viện cũng sẽ làm việc chặt chẽ với Viện An toàn AI của Vương quốc Anh trong quá trình này.
Jack Clark, đồng sáng lập và trưởng bộ phận chính sách của Anthropic, cho biết: "Sự hợp tác với Viện An toàn AI Mỹ tận dụng chuyên môn rộng rãi của họ để kiểm tra nghiêm ngặt các mô hình của chúng tôi trước khi triển khai rộng rãi. Điều này tăng cường khả năng xác định và giảm thiểu rủi ro, thúc đẩy sự phát triển AI có trách nhiệm".
Động thái này là một phần trong nỗ lực thực hiện sắc lệnh về AI của Nhà Trắng được công bố vào năm 2023, nhằm tạo khung pháp lý cho việc triển khai nhanh chóng các mô hình AI tại Mỹ.
Tuy nhiên, trong khi chính phủ liên bang đang theo đuổi cách tiếp cận tự nguyện, các nhà lập pháp tại California - trung tâm công nghệ của Mỹ, vừa thông qua dự luật an toàn AI cấp tiểu bang hôm 28/8. Dự luật này, nếu được thống đốc ký thông qua, sẽ áp đặt các quy định chặt chẽ hơn đối với ngành công nghiệp AI.
Sam Altman, CEO của OpenAI, đã bày tỏ quan điểm ủng hộ việc quản lý AI ở cấp quốc gia thay vì cấp tiểu bang, cho rằng điều này sẽ giúp tránh được nguy cơ cản trở nghiên cứu và đổi mới trong lĩnh vực AI.
Động thái hợp tác giữa các công ty công nghệ hàng đầu và chính phủ Mỹ cho thấy xu hướng cân bằng giữa sự đổi mới và an toàn trong lĩnh vực AI đang ngày càng phát triển nhanh chóng này.