Cùng với
sự bùng nổ mạnh mẽ của AI thời gian qua, các nước đang ngày càng chú
trọng cân bằng giữa quản lý rủi ro và thúc đẩy sáng tạo trong lĩnh vực
này. Mới đây, Ủy ban Thị trường Nội bộ và Ủy ban Quyền tự do Dân sự
thuộc Nghị viện châu Âu (EP) đã bỏ phiếu thông qua dự luật về AI của
Liên minh châu Âu (EU), đánh dấu bước tiến mới trong nỗ lực xây dựng cơ
sở pháp lý nhằm kiểm soát hoạt động phát triển AI.
Dự luật yêu cầu các đơn vị phát triển AI đánh giá mức độ an toàn, đưa ra giải pháp quản lý dữ liệu và giảm thiểu
rủi ro trước khi đưa sản phẩm ra thị trường. Với các sản phẩm được tạo
ra bằng ứng dụng AI tạo sinh như ChatGPT của OpenAI, nhà sản xuất phải nêu rõ cảnh báo đây là sản phẩm do máy
móc tạo ra. Ngoài ra, dự luật bổ sung điều khoản cấm sử dụng công nghệ
nhận diện khuôn mặt ở nơi công cộng, cũng như công cụ sử dụng thuật toán
dự báo hành vi tội phạm… Dự luật của EU phân loại các công cụ AI thành
bốn nhóm dựa trên mức độ rủi ro, từ thấp đến không thể chấp nhận. Những
ứng dụng có mức rủi ro cao sẽ đối mặt quy định khắt khe hơn.
EP khẳng định, dự luật nêu trên nhằm bảo đảm các
hệ thống AI được giám sát, an toàn, minh bạch, không phân biệt đối xử và
thân thiện với môi trường. Trong khi đó, giới phân tích nhận định, đây
là bước tiến quan trọng, mở đường cho sự ra đời của văn bản pháp lý toàn
diện đầu tiên trên thế giới về AI. EP dự kiến biểu quyết thông qua dự
luật vào giữa tháng 6 tới, trước khi thống nhất trong các cuộc đàm phán
với Ủy ban châu Âu (EC) và chính phủ các nước thành viên.
Bên
cạnh EU, sự bùng nổ mạnh mẽ của AI cũng buộc chính phủ nhiều nước hành
động nhằm hạn chế những rủi ro tiềm ẩn, song vẫn bắt kịp sự phát triển
nhanh chóng của công nghệ tiên tiến này. Nhà trắng mới đây tuyên bố sẽ
đầu tư 140 triệu USD để lập bảy trung tâm nghiên cứu và công bố hướng
dẫn mới về sử dụng AI. Đây là một trong những nỗ lực của chính quyền
Tổng thống Joe Biden để ngăn chặn rủi ro bảo mật liên quan AI.
Trong
khi đó, Cơ quan Giám sát Cạnh tranh và Thị trường của Anh thông báo bắt
đầu đánh giá tác động của AI đối với người tiêu dùng, doanh nghiệp và
nền kinh tế, cũng như xem xét khả năng áp dụng biện pháp mới nhằm kiểm
soát các công cụ như ChatGPT của Công ty OpenAI. Tại Nhật Bản, Hội nghị
chiến lược về trí tuệ nhân tạo đã được tổ chức với mục tiêu phát triển
AI và giải quyết vấn đề phát sinh trong quá trình sử dụng.
Nhiều
nhà phân tích nhận định, không thể phủ nhận lợi ích mà AI mang lại, song
sức nóng của AI cũng làm dấy lên lo ngại rằng sự phát triển nhanh chóng
của công nghệ này có thể kéo theo hệ lụy khôn lường. Theo Meta, công ty
chủ quản của mạng xã hội Facebook, tin tặc lợi dụng cơn sốt ứng dụng AI
như ChatGPT để lừa người dùng tải về mã độc. Giám đốc an ninh thông tin
của Facebook mô tả đây là làn sóng tấn công bằng mã độc. Meta đã phát
hiện và chặn hơn 1.000 địa chỉ trang mạng được quảng cáo là cung cấp
công cụ AI tương tự ChatGPT.
Giới chuyên gia cũng cảnh báo về
deepfake-công nghệ AI bị tội phạm sử dụng để giả mạo hình ảnh, giọng nói
nhằm mục đích chiếm đoạt tài sản hoặc tung tin sai lệch. Thủ đoạn tinh
vi này là mối lo ngại với rất nhiều người dùng internet. Không chỉ dừng
lại ở việc tạo tin giả về chính trị, hay trả thù cá nhân, tội phạm sử
dụng deepfake để lừa đảo hoặc tống tiền. Năm ngoái, ước tính tổng thiệt
hại trong các vụ lừa đảo qua deepfake trên thế giới lên tới hàng chục
triệu USD.
Theo ước tính của các chuyên gia, đầu năm 2023, giá
trị thị trường AI là 207,9 tỷ USD và đến năm 2028 có thể vượt ngưỡng
1.000 tỷ USD. Việc xây dựng hành lang pháp lý nhằm kiểm soát và ngăn
ngừa những nguy cơ tiềm ẩn từ AI ngày càng cấp thiết. Liên hợp quốc
khẳng định, các công nghệ AI cần được giám sát chặt chẽ, cho dù công
nghệ phát triển đến mức nào cũng phải bảo đảm khía cạnh quyền con người
luôn là yếu tố trung tâm./.
TIẾN DŨNG (nhandan.vn)