CẢNH BÁO VỀ RỦI RO KHI SỬ DỤNG CÁC SẢN PHẨM AI
Ngày 10/4, Hiệp hội Thanh toán và Thanh toán bù trừ Trung Quốc cảnh báo việc sử dụng công cụ trò chuyện (chatbot) ChatGPT do công ty OpenAI (Mỹ) phát triển, cũng như các công cụ theo dõi tương tự do con người tạo ra, có thể gây ra "những rủi ro như rò rỉ dữ liệu xuyên biên giới".
Hiệp hội Thanh toán và Thanh toán bù trừ Trung Quốc là một tổ chức chịu sự quản lý của ngân hàng trung ương Trung Quốc. Tuyên bố của hiệp hội này nêu rõ: "Nhân viên ngành thanh toán phải tuân thủ luật pháp và các quy tắc khi sử dụng những công cụ như ChatGPT và không nên đăng tải những thông tin mật liên quan tình hình đất nước và ngành tài chính".
Hiện OpenAI chưa hỗ trợ ChatGPT ở Trung Quốc, nhưng ứng dụng trí tuệ nhân tạo (AI) này đang thu hút sự quan tâm rất lớn, khi các công ty gấp rút tích hợp công nghệ vào các sản phẩm của mình và tung ra các giải pháp cạnh tranh.
Tuy không thể tạo tài khoản OpenAI, nhưng nhiều người ở Trung Quốc đã "né" lệnh cấm bằng cách sử dụng những mạng lưới ảo riêng tư và số điện thoại từ nước ngoài để truy cập hộp thoại.
"Cơn sốt" chạy đua phát triển chatbot đã thúc đẩy sự phục hồi của cổ phiếu công nghệ, truyền thông và viễn thông (TMT). Tuy nhiên, các nhà phân tích cảnh báo nguy cơ bong bóng từ thực trạng này. Ngày 10/4, Nhật báo Kinh tế (Economic Daily) của Trung Quốc đã đăng bài viết kêu gọi các cơ quan quản lý tăng cường giám sát và trấn áp đầu cơ trong lĩnh vực công nghệ AI.
Nguồn: Thanh Phương (TTXVN)
Kinh tế thế giới sau ngày nước Mỹ chọn Tổng thống thứ 47
07/11/2024 | 16:48
TIN NÓNG MỸ: Chưa có kết quả chính thức nhưng mọi thứ đều chỉ ra Donald Trump thắng cử.
06/11/2024 | 15:24
Sương mù độc hại bao trùm thủ đô New Delhi
05/11/2024 | 18:30
Ít nhất 14 người thiệt mạng vì bị sét đánh ở Uganda
04/11/2024 | 08:07
Hàng trăm nghìn người Nhật Bản sơ tán do cảnh báo lũ lụt và sạt lở đất
03/11/2024 | 09:33
Đảo Jeju ghi nhận lượng mưa kỷ lục trong hơn 100 năm
02/11/2024 | 16:14
Báo Hoa Kỳ đăng thư ngỏ kêu gọi Tổng thống Biden đảo ngược chính sách đối với Cuba
27/10/2024 | 00:50

Thư điện tử của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *