Thứ Tư, 12/6/2024
Khoa học
Thứ Sáu, 7/4/2023 9:38'(GMT+7)

Trí tuệ nhân tạo - Thách thức của thời đại mới

(Ảnh minh hoạ)

(Ảnh minh hoạ)

Từ các nhà khoa học, chủ doanh nghiệp cho đến giới lãnh đạo các nước lần lượt lên tiếng bày tỏ lo ngại về những rủi ro mà AI đem đến. Mới đây, Cơ quan Cảnh sát châu Âu (Europol) gióng hồi chuông cảnh báo về nguy cơ sử dụng sản phẩm AI vào các âm mưu lừa đảo qua thư, giả mạo thông tin.
 
 Hơn 1.000 người bao gồm các chủ doanh nghiệp, chuyên gia và nhà nghiên cứu trong lĩnh vực AI cũng đã ký vào một bức thư ngỏ kêu gọi tạm dừng 6 tháng việc huấn luyện các mô hình AI mạnh hơn GPT-4 mà Công ty OpenAI vừa cho ra mắt.

Bức thư nhấn mạnh rằng, cần tạm ngừng phát triển các hệ thống AI tiên tiến cho đến khi những quy định về an toàn mới dành cho thiết kế AI được phát triển, thực thi và giám sát bởi các chuyên gia độc lập.

Không thể phủ nhận rằng, AI đang ngày càng chứng minh là một công cụ đắc lực hỗ trợ người lao động và tạo thuận lợi cho cuộc sống của con người. Song, các sản phẩm công nghệ này giống như “con dao hai lưỡi” khi khơi mào một cuộc chiến cam go mới giữa các đối tượng tội phạm công nghệ cao và lực lượng bảo vệ an ninh mạng.

Các chuyên gia an ninh mạng Australia cảnh báo, tin tặc đang sử dụng ứng dụng trò chuyện ChatGPT để tạo ra các email lừa đảo “thật” đến mức ngay cả những nhân viên được đào tạo bài bản về bảo mật của một công ty cũng bị mắc bẫy.

Giám đốc kinh doanh tại VMware Australia, ông Darren Reid cho biết, một khi tội phạm mạng đã xâm nhập được vào hệ thống máy tính của một tổ chức, chúng sẽ sử dụng AI để tránh bị phát hiện và tiếp tục mở rộng tấn công.

Một nghiên cứu được Công ty phần mềm và an ninh mạng BlackBerry (có trụ sở tại Canada) công bố đầu năm nay cho thấy, 51% trong số 1.500 chuyên gia công nghệ thông tin đến từ nhiều nước dự báo rằng, ChatGPT có thể gây ra một vụ tấn công mạng trong vòng một năm tới.

Gần đây, không ít đối tượng tội phạm đã sử dụng Deepfake để lừa đảo. Deepfake là công nghệ ứng dụng AI tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao.

Bên cạnh việc bị tội phạm mạng lợi dụng để thực hiện các âm mưu phi pháp như lừa đảo trực tuyến hoặc viết phần mềm độc hại, các sản phẩm công nghệ AI còn đặt ra nhiều thách thức như nguy cơ gian lận học vấn, rò rỉ dữ liệu, vi phạm quyền riêng tư, xóa sổ các vị trí việc làm...

Trong một nỗ lực nhằm lấp đầy những kẽ hở từ AI và giúp con người thật sự làm chủ công nghệ, các quốc gia đang thúc đẩy xây dựng những bộ luật để tăng cường quản lý AI.

Ủy ban AI thuộc Phòng Thương mại Mỹ đã thúc giục Quốc hội sớm xây dựng quy định đối với các công cụ AI và nên xem đây là ưu tiên hàng đầu. Chính phủ Anh công bố Sách trắng bao gồm các hướng dẫn cụ thể về việc thực hiện những quy định liên quan đến AI.

Trong Sách trắng trình Quốc hội, Bộ Khoa học, Đổi mới và Công nghệ Anh nêu năm nguyên tắc mà cơ quan này muốn các công ty tuân thủ. Đó là an toàn, bảo mật và mạnh mẽ; minh bạch và có khả năng giải thích; công bằng; trách nhiệm giải trình và quản trị; khả năng cạnh tranh và khắc phục.

Chính phủ Australia cũng ra mắt một mạng lưới nhằm giúp các công ty sử dụng và phát triển AI một cách an toàn, có đạo đức. Theo đó, mạng lưới AI này sẽ cung cấp các dịch vụ độc đáo như hướng dẫn và huấn luyện thực tế về luật, tiêu chuẩn, nguyên tắc quản trị, lãnh đạo... về công nghệ này.

Giới chuyên gia Australia dự báo rằng, AI có thể đóng góp đến 14,7 nghìn tỷ USD cho nền kinh tế toàn cầu vào năm 2030. AI nói riêng và công nghệ cao nói chung mang đến những cơ hội lẫn thách thức cho người sử dụng.

Yêu cầu đặt ra là cần kiểm soát để phát triển các sản phẩm công nghệ cao một cách có trách nhiệm, bởi việc không thể điều chỉnh, làm chủ được công nghệ sẽ kéo theo hệ quả khôn lường, gây tổn thất cho nền kinh tế và làm ảnh hưởng đến mỗi cá nhân cũng như toàn xã hội./.

MAI VY (nhandan.vn)

Phản hồi

Các tin khác

Thư viện ảnh

Liên kết website

Mới nhất