Hơn 1.000 người bao gồm các chủ doanh nghiệp, chuyên gia và nhà nghiên cứu trong lĩnh vực AI cũng đã ký vào một bức thư ngỏ kêu gọi tạm dừng 6 tháng việc huấn luyện các mô hình AI mạnh hơn GPT-4 mà Công ty OpenAI vừa cho ra mắt.
Bức
thư nhấn mạnh rằng, cần tạm ngừng phát triển các hệ thống AI tiên tiến
cho đến khi những quy định về an toàn mới dành cho thiết kế AI được phát
triển, thực thi và giám sát bởi các chuyên gia độc lập.
Không
thể phủ nhận rằng, AI đang ngày càng chứng minh là một công cụ đắc lực
hỗ trợ người lao động và tạo thuận lợi cho cuộc sống của con người.
Song, các sản phẩm công nghệ này giống như “con dao hai lưỡi” khi khơi
mào một cuộc chiến cam go mới giữa các đối tượng tội phạm công nghệ cao
và lực lượng bảo vệ an ninh mạng.
Các chuyên gia an ninh mạng
Australia cảnh báo, tin tặc đang sử dụng ứng dụng trò chuyện ChatGPT để
tạo ra các email lừa đảo “thật” đến mức ngay cả những nhân viên được đào
tạo bài bản về bảo mật của một công ty cũng bị mắc bẫy.
Giám
đốc kinh doanh tại VMware Australia, ông Darren Reid cho biết, một khi
tội phạm mạng đã xâm nhập được vào hệ thống máy tính của một tổ chức,
chúng sẽ sử dụng AI để tránh bị phát hiện và tiếp tục mở rộng tấn công.
Một
nghiên cứu được Công ty phần mềm và an ninh mạng BlackBerry (có trụ sở
tại Canada) công bố đầu năm nay cho thấy, 51% trong số 1.500 chuyên gia
công nghệ thông tin đến từ nhiều nước dự báo rằng, ChatGPT có thể gây ra
một vụ tấn công mạng trong vòng một năm tới.
Gần đây, không ít
đối tượng tội phạm đã sử dụng Deepfake để lừa đảo. Deepfake là công nghệ
ứng dụng AI tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video
làm giả đối tượng ngoài đời thực với độ chính xác rất cao.
Bên
cạnh việc bị tội phạm mạng lợi dụng để thực hiện các âm mưu phi pháp
như lừa đảo trực tuyến hoặc viết phần mềm độc hại, các sản phẩm công
nghệ AI còn đặt ra nhiều thách thức như nguy cơ gian lận học vấn, rò rỉ
dữ liệu, vi phạm quyền riêng tư, xóa sổ các vị trí việc làm...
Trong
một nỗ lực nhằm lấp đầy những kẽ hở từ AI và giúp con người thật sự làm
chủ công nghệ, các quốc gia đang thúc đẩy xây dựng những bộ luật để
tăng cường quản lý AI.
Ủy ban AI thuộc Phòng Thương mại Mỹ đã
thúc giục Quốc hội sớm xây dựng quy định đối với các công cụ AI và nên
xem đây là ưu tiên hàng đầu. Chính phủ Anh công bố Sách trắng bao gồm
các hướng dẫn cụ thể về việc thực hiện những quy định liên quan đến AI.
Trong
Sách trắng trình Quốc hội, Bộ Khoa học, Đổi mới và Công nghệ Anh nêu
năm nguyên tắc mà cơ quan này muốn các công ty tuân thủ. Đó là an toàn,
bảo mật và mạnh mẽ; minh bạch và có khả năng giải thích; công bằng;
trách nhiệm giải trình và quản trị; khả năng cạnh tranh và khắc phục.
Chính
phủ Australia cũng ra mắt một mạng lưới nhằm giúp các công ty sử dụng
và phát triển AI một cách an toàn, có đạo đức. Theo đó, mạng lưới AI này
sẽ cung cấp các dịch vụ độc đáo như hướng dẫn và huấn luyện thực tế về
luật, tiêu chuẩn, nguyên tắc quản trị, lãnh đạo... về công nghệ này.
Giới
chuyên gia Australia dự báo rằng, AI có thể đóng góp đến 14,7 nghìn tỷ
USD cho nền kinh tế toàn cầu vào năm 2030. AI nói riêng và công nghệ cao
nói chung mang đến những cơ hội lẫn thách thức cho người sử dụng.
Yêu
cầu đặt ra là cần kiểm soát để phát triển các sản phẩm công nghệ cao
một cách có trách nhiệm, bởi việc không thể điều chỉnh, làm chủ được
công nghệ sẽ kéo theo hệ quả khôn lường, gây tổn thất cho nền kinh tế và
làm ảnh hưởng đến mỗi cá nhân cũng như toàn xã hội./.
MAI VY (nhandan.vn)