Anthropic hôm qua (27/8) cho biết hãng đã phát hiện và chặn đứng các nỗ lực của tin tặc tìm cách lợi dụng hệ thống Claude AI để soạn thảo email lừa đảo, tạo mã độc và vượt qua các bộ lọc an toàn.
Câu chuyện của Anthropic là một ví dụ điển hình cho thách thức toàn cầu: làm thế nào để phát triển AI mạnh mẽ nhưng vẫn đảm bảo các giới hạn an toàn, đạo đức và chủ quyền số trong một thế giới ngày càng phụ thuộc vào công nghệ.
Thế giới an ninh mạng vừa chứng kiến một bước ngoặt đáng lo ngại: Anthropic – công ty phát triển mô hình Claude – công bố chi tiết về chiến dịch gián điệp mạng đầu tiên do AI tự động điều phối gần như hoàn toàn không cần sự can thiệp đáng kể của con người.
Sam Altman (CEO OpenAI), Elon Musk (nhà sáng lập xAI), và Dario Amodei (CEO Anthropic) đồng loạt khẳng định tốc độ tiến bộ của trí tuệ nhân tạo (AI) sẽ sớm vượt xa trí thông minh con người, hứa hẹn bước đột phá mang tính cách mạng trong thập kỷ tới.
Theo báo cáo mới từ bộ phận nghiên cứu DORA của Google, 90% nhân viên trong lĩnh vực công nghệ trên toàn cầu đang sử dụng trí tuệ nhân tạo (AI) trong công việc, chủ yếu cho các tác vụ viết và chỉnh sửa mã. Con số này tăng 14% so với năm ngoái, phản ánh xu hướng bùng nổ ứng dụng AI trong phát triển phần mềm.
Việc thiếu chuyên gia an ninh phần mềm không phải là một vấn đề mới. Đã có không ít ý tưởng rồi đề xuất được đưa ra nhằm giải quyết bài toán nhân lực an ninh phần mềm, trong đó việc sử dụng trí tuệ nhân tạo (AI) được cho là giải pháp giàu tiềm năng. Nhưng sau một thời gian “dang rộng vòng tay” đón chào AI, thế giới công nghệ đang phải dần thừa nhận rằng AI đã khiến vấn đề thiếu chuyên gia an ninh phần mềm thêm phần trầm trọng.
California đưa ra quy định siết chặt quản lý AI, yêu cầu doanh nghiệp triển khai các biện pháp bảo vệ trước nguy cơ lạm dụng công nghệ này khi tham gia ký kết hợp đồng với chính quyền bang.
Hai mô hình trí tuệ nhân tạo của Trung Quốc, DeepSeek và Qwen, đang gây chú ý khi đánh bại hàng loạt đối thủ phương Tây - bao gồm cả GPT của OpenAI - trong cuộc thi đầu tư tiền điện tử do Mỹ tổ chức.
Chính phủ Nga vừa công bố các đề xuất mới nhằm thiết lập quyền kiểm soát sâu rộng đối với lĩnh vực trí tuệ nhân tạo, mở đường cho việc cấm hoặc hạn chế các công cụ phổ biến như ChatGPT, Claude và Gemini.
Các mô hình ngôn ngữ lớn (LLM) của OpenAI trong tương lai có thể gây ra rủi ro an ninh mạng cao hơn, vì về lý thuyết các mô hình này có thể tự tạo ra các lỗ hổng tấn công từ xa kiểu zero‑day để xâm nhập những hệ thống được bảo vệ tốt, hoặc hỗ trợ các chiến dịch gián điệp mạng phức tạp và khó bị phát hiện.
Trong bối cảnh nguy cơ rò rỉ dữ liệu ngày càng tăng cao, hình thức tấn công credential stuffing - lợi dụng thông tin đăng nhập bị lộ để chiếm quyền tài khoản - đang trở thành mối đe dọa nghiêm trọng đối với cộng đồng mạng. Thói quen dùng một mật khẩu cho nhiều dịch vụ, tưởng chừng tiện lợi, lại biến các tài khoản thành “miếng mồi” hấp dẫn cho tin tặc.
Mới đây, các chuyên gia cảnh báo về nguy cơ tấn công xuất phát từ chính giao thức kết nối AI, có thể biến những công cụ hỗ trợ doanh nghiệp thành mục tiêu bị lợi dụng.
Các nhà nghiên cứu an ninh mạng của ESET - công ty an ninh mạng có trụ sở tại châu Âu vừa phát hiện một xu hướng đáng lo ngại trong thế giới tội phạm số: tin tặc đã bắt đầu sử dụng mã độc do trí tuệ nhân tạo (AI) tạo ra để tấn công các thiết bị thanh toán sử dụng công nghệ giao tiếp tầm ngắn (NFC).
Công ty an ninh mạng Hadrian vừa giới thiệu phiên bản mới của nền tảng trí tuệ nhân tạo dạng tác nhân (agentic AI), sử dụng các phần mềm tự động “tấn công” để chủ động tìm kiếm, kiểm tra và phát hiện lỗ hổng bảo mật trước khi tin tặc kịp khai thác.
Tại hội thảo góp ý Dự thảo Luật Công nghệ cao (sửa đổi), các chuyên gia và đại biểu tập trung làm rõ khái niệm, phạm vi và cơ chế ưu đãi, đồng thời đề xuất hoàn thiện chính sách để phù hợp thực tiễn.