Doanh
nghi??p cần cẩn trọng tích hợp các công cụ AI vào quy trình kinh doanh khi hacker dễ dàng qua mặt chatbot AI và hướng dẫn chúng thực hiện các tác vụ độc hại.
Cơ quan An ninh mạng Vương quốc Anh cảnh b&a
acute;o c&a
acute;c tổ chức đang t&i
acute;ch hợp chatbot tr&i
acute; tuệ nhân tạo (AI) vào sản phẩm và dịch vụ, nghiên cứu cho thấy c&a
acute;c công cụ AI dễ dàng bị dẫn dắt thực hiện những t&a
acute;c vụ độc hại.
Trong bài đăng trên blog ngày 30/8, Trung tâm An ninh mạng Vương quốc Anh (NCSC) cho hay, c&a
acute;c chuyên gia vẫn chưa thể nắm bắt được c&a
acute;c vấn đề an ninh mạng tiềm ẩn gắn với những thuật to&a
acute;n c&o
acute; thể tương t&a
acute;c “giống con người”, tức c&a
acute;c mô hình ngôn ngữ lớn (LLM).
NCSC cho biết điều này mang theo những rủi ro, khi c&a
acute;c mô hình như vậy được đưa vào quy trình kinh doanh của doanh
nghi??p. Giới học giả và nghiên cứu gần đây liên tục tìm ra c&a
acute;ch “đ&a
acute;nh lừa” AI, hướng dẫn chatbot thực hiện lừa đảo hay ph&a
acute; vỡ c&a
acute;c rào chắn bảo vệ được t&i
acute;ch hợp.
Công cụ t&i
acute;ch hợp AI tạo sinh đang được sử dụng như chatbot, được cho sẽ thay thế không chỉ c&a
acute;c hoạt động tìm kiếm trên Internet mà còn công việc liên quan dịch vụ kh&a
acute;ch hàng hay cuộc gọi b&a
acute;n hàng.
Chẳng hạn, một chatbot AI sử dụng tại một ngân hàng c&o
acute; thể bị lừa tiến hành giao dịch tr&a
acute;i ph&e
acute;p nếu tin tặc đưa ra “chỉ dẫn” đ&u
acute;ng.
“C&a
acute;c tổ chức xây dựng dịch vụ xung quanh LLMs cần cẩn trọng trên tinh thần họ đang sử dụng một sản phẩm mới ở giai đoạn thử
nghi??m (beta)”, tr&i
acute;ch thông b&a
acute;o của NCSC, đề cập đến những AI ph&a
acute;t hành thử
nghi??m gần đây.
Cuộc thăm dò mới nh
ất của Reuters/Ipsos cho thấy nhiều nhân viên công ty đang sử dụng công cụ như ChatGPT để thực hiện c&a
acute;c t&a
acute;c vụ cơ bản như dự thảo mail, t&o
acute;m tắt tài liệu và thu thập dữ liệu nghiên cứu ban đầu.
Trong đ&o
acute; chỉ 10% nhân viên n&o
acute;i rằng cấp trên của họ cấm sử dụng công cụ AI bên ngoài một c&a
acute;ch rõ ràng và 25% không biết liệu công ty c&o
acute; cho ph&e
acute;p sử dụng công nghệ này hay không.
Oseloka Obiora, gi&a
acute;m đốc công nghệ tại hãng bảo mật RiverSafe nhận địn
h, cu???c đua t&i
acute;ch hợp AI vào mô hình kinh doanh sẽ tạo ra những “hậu quả thảm khốc” khi lãnh đạo doanh
nghi??p không tiến hành những bước kiểm tra cần thiết. “Thay vì đu theo xu hướng AI, c&a
acute;c gi&a
acute;m đốc cấp cao nên suy nghĩ kỹ và tiến hành đ&a
acute;nh gi&a
acute; lợi &i
acute;ch/rủi ro, cũng như c&a
acute;c biện ph&a
acute;p bảo mật cần thiết để bảo vệ doanh
nghi??p”.
Tin giả và tin tặc
Trên toàn thế giới, ch&i
acute;nh phủ c&a
acute;c nước cũng đang tìm c&a
acute;ch quản l&y
acute; sự trỗi dậy của c&a
acute;c LLM như ChatGPT của OpenAI. Lo ngại về t&i
acute;nh bảo mật của công nghệ mới cũng là trọng tâm ch&i
acute;nh s&a
acute;ch khi Mỹ và Canada gần đây n&o
acute;i rằng họ đã ph&a
acute;t hiện tin tặc tăng cường lợi dụng AI tạo sinh.
Một hacker thậm ch&i
acute; n&o
acute;i rằng anh ta ph&a
acute;t hiện một LLM đã được “huấn luyện” bằng c&a
acute;c tài liệu độc hại và thử yêu cầu n&o
acute; xây dựng kế hoạch lừa đảo chuyển tiền. Đ&a
acute;p lại, AI tạo ra bức thư điện tử dài ba đoạn, yêu cầu người nhận thanh to&a
acute;n ho&a
acute; đơn khẩn cấp.
Th&a
acute;ng 7/2023, Trung tâm An ninh mạng Canada ghi nhận việc gia tăng sử dụng AI trong “lừa đảo qua email, nh&u
acute;ng mã độc, thông tin sai lệch và xuyên tạc”. Sami Khoury, gi&a
acute;m đốc trung tâm không cung cấp bằng chứng chi tiết, song khẳng định giới tội phạm mạng đang t&i
acute;ch cực lợi dụng công nghệ mới nổi này.
Lãnh đạo này cũng cho biết, mặc dù việc sử dụng AI soạn thảo mã độc mới ở giai đoạn đầu, song mô hình AI đang ph&a
acute;t triển qu&a
acute; nhanh dễ dẫn đến mức không thể kiểm so&a
acute;t những rủi ro độc hại của ch&u
acute;ng.
Trước đ&o
acute;, th&a
acute;ng 3/2023, tổ chức Cảnh s&a
acute;t châu Âu Europol công bố b&a
acute;o c&a
acute;o n&o
acute;i rằng ChatGPT c&o
acute; thể “mạo danh tổ chức, c&a
acute; nhân theo c&a
acute;ch rất thực tế ngay cả khi chỉ sử dụng tiếng Anh một c&a
acute;ch cơ bản”. Cùng th&a
acute;ng, Trung tâm An ninh mạng quốc gia Anh n&o
acute;i rằng “LLM c&o
acute; thể được sử dụng để hỗ trợ c&a
acute;c cuộc tấn công mạng”.
(Theo Reuters)
Bốn mô hình AI hàng đầu tranh tài ‘bịa chuyện’
Nghiên cứu mới nh
ất cho thấy c&a
acute;c mô hình AI hàng đầu của Meta, OpenAI, Cohere và Anthropic đều tạo ra thông tin sai lệch.
Mỹ treo thưởng 20 triệu USD cho s&a
acute;ng kiến sử dụng AI phòng thủ tấn công mạng
Mỹ ph&a
acute;t động cuộc thi sử dụng AI bảo vệ cơ sở hạ tầng trọng yếu trước tấn công mạng với tổng giải thưởng trị gi&a
acute; 20 triệu USD.
Chat GPT như hiệu lệnh xuất ph&a
acute;t cho cuộc đua AI
Trong tương lai, công nghệ tr&i
acute; tuệ nhân tạo sẽ tiếp tục đượ
c ứng dụng để thay đổi hoàn toàn c&a
acute;ch vận hành, quản trị doanh
nghi??p và c&a
acute;ch doanh
nghi??p tương t&a
acute;c với kh&a
acute;ch hàng, đặc biệt với những doanh
nghi??p c&o
acute; quy mô kh&a
acute;ch hàng lớn.
Nguồn bài viết : TK xổ số Keno