OpenAI hôm thứ Tư (10/12) cảnh báo rằng các mô hình trí tuệ nhân tạo (AI) sắp ra mắt của hãng có thể tạo ra rủi ro an ninh mạng ở mức “cao”, khi năng lực của chúng tiếp tục phát triển nhanh chóng.
Từ một phòng thí nghiệm phi lợi nhuận trở thành doanh nghiệp được định giá nửa nghìn tỷ USD, OpenAI đang bước vào giai đoạn mở rộng quyền lực chưa từng có trong lịch sử Silicon Valley. Song chính vị thế trung tâm đó lại làm dấy lên lo ngại rằng, nếu OpenAI trượt chân, hệ sinh thái trí tuệ nhân tạo – và cả nền kinh tế Mỹ – có thể phải hứng chịu cú sốc lan truyền tương tự cuộc khủng hoảng tài chính 2008.
Thỏa thuận kéo dài 7 năm sẽ cung cấp cho OpenAI quyền truy cập hàng trăm nghìn chip Nvidia, phục vụ việc huấn luyện mô hình AI, trong bối cảnh hãng này tìm cách mở rộng tự chủ tài chính và giảm phụ thuộc vào Microsoft.
Chỉ ít ngày sau khi ra mắt, trình duyệt AI Atlas của OpenAI đã trở thành tâm điểm tranh cãi khi các chuyên gia an ninh mạng phát hiện một lỗ hổng có thể bị tin tặc lợi dụng để chèn dữ liệu độc hại vào clipboard của người dùng.
Công ty bảo mật Radware vừa công bố phát hiện một lỗ hổng nghiêm trọng trong tính năng Deep Research của ChatGPT, có khả năng dẫn đến rò rỉ dữ liệu cá nhân từ tài khoản Gmail của người dùng. Ngay sau đó, OpenAI đã tiến hành khắc phục sự cố và cam kết tăng cường bảo mật cho hệ thống trí tuệ nhân tạo của mình.
OpenAI đã tiến hành biện pháp xử lý đối với các tài khoản người dùng đến từ Trung Quốc và Triều Tiên, xuất phát từ những quan ngại về hoạt động không phù hợp.
Intel thông báo rằng Tổng giám đốc điều hành (CEO) Lip-Bu Tan sẽ trực tiếp giám sát các hoạt động liên quan đến trí tuệ nhân tạo (AI) của tập đoàn, sau khi Giám đốc công nghệ (CTO) Sachin Katti rời công ty để gia nhập OpenAI, nhà phát triển của ChatGPT.
OpenAI vừa ra mắt Aardvark, một trợ lý AI dựa trên GPT-5 có khả năng tự quét mã, phát hiện và vá lỗ hổng phần mềm trong thời gian thực. Đây là bước tiến mới trong cuộc đua “AI bảo mật chống AI tấn công”, khi trí tuệ nhân tạo bắt đầu đảm nhận vai trò của chuyên gia an ninh mạng.
Công ty trí tuệ nhân tạo OpenAI mới đây đã tuyên bố các thế hệ mô hình AI tiếp theo mà họ đang phát triển có thể mang đến rủi ro an ninh mạng ở mức cao, do khả năng của chúng ngày càng mạnh mẽ có thể bị lợi dụng để tạo ra lỗ hổng hoặc hỗ trợ các cuộc tấn công mạng phức tạp.
OpenAI vừa chính thức giới thiệu ChatGPT Health - trợ lý hỗ trợ chăm sóc sức khỏe được cá nhân hoá với khả năng liên kết dữ liệu y tế cá nhân và ứng dụng theo dõi sức khoẻ, hướng tới nhu cầu ngày càng lớn của người dùng AI trên toàn cầu.
Các mô hình ngôn ngữ lớn (LLM) của OpenAI trong tương lai có thể gây ra rủi ro an ninh mạng cao hơn, vì về lý thuyết các mô hình này có thể tự tạo ra các lỗ hổng tấn công từ xa kiểu zero‑day để xâm nhập những hệ thống được bảo vệ tốt, hoặc hỗ trợ các chiến dịch gián điệp mạng phức tạp và khó bị phát hiện.
Tập đoàn Công nghệ CMC vừa chính thức ra mắt Công ty CMC OpenAI (C-OpenAI) vào hôm nay, 21/8. Sự kiện được đánh giá là bước ngoặt chiến lược trong hành trình làm chủ AI của Việt Nam.
Sam Altman (CEO OpenAI), Elon Musk (nhà sáng lập xAI), và Dario Amodei (CEO Anthropic) đồng loạt khẳng định tốc độ tiến bộ của trí tuệ nhân tạo (AI) sẽ sớm vượt xa trí thông minh con người, hứa hẹn bước đột phá mang tính cách mạng trong thập kỷ tới.
Tại hội thảo góp ý Dự thảo Luật Công nghệ cao (sửa đổi), các chuyên gia và đại biểu tập trung làm rõ khái niệm, phạm vi và cơ chế ưu đãi, đồng thời đề xuất hoàn thiện chính sách để phù hợp thực tiễn.