Các vụ tấn công AI cho thấy Gemini có thể bị lợi dụng để bí mật điều khiển đèn, máy sưởi và các thiết bị nhà thông minh khác, báo hiệu một bước tiến mới trong các lỗ hổng kỹ thuật số.
Các báo cáo mới đây từ MalwareBytes cho thấy Gmail không còn là “vùng riêng tư bất khả xâm phạm” như nhiều người vẫn nghĩ, khi Google đang âm thầm triển khai cơ chế cho phép hệ thống sử dụng nội dung thư, cùng các tệp đính kèm, làm dữ liệu huấn luyện cho các mô hình trí tuệ nhân tạo như Gemini. Thay vì chỉ phân tích dữ liệu ở mức kỹ thuật, hệ thống giờ đây có thể tận dụng trực tiếp cách người dùng viết, lựa chọn từ ngữ và nội dung trao đổi để tinh chỉnh các tính năng AI.
Theo khảo sát của Liên hiệp Phát sóng châu Âu (EBU), các trợ lý trí tuệ nhân tạo như ChatGPT, Gemini, Copilot và Perplexity thường cung cấp thông tin sai lệch hoặc thiếu chính xác trong hàng nghìn câu trả lời liên quan đến tin tức thời sự, đòi hỏi người dùng cần cẩn trọng khi dựa vào công cụ này để tra cứu thông tin quan trọng.
Hai mô hình trí tuệ nhân tạo của Trung Quốc, DeepSeek và Qwen, đang gây chú ý khi đánh bại hàng loạt đối thủ phương Tây - bao gồm cả GPT của OpenAI - trong cuộc thi đầu tư tiền điện tử do Mỹ tổ chức.
Các chatbot AI phổ biến như ChatGPT, Gemini, Claude ngày càng gắn bó với đời sống số của người dùng. Tuy nhiên, không ít người nhận thấy hiện tượng kỳ lạ: sau một thời gian trò chuyện, AI dường như “quên mất” nội dung trước đó, dễ lặp đi lặp lại hoặc trả lời thiếu nhất quán.
Các nhà nghiên cứu vừa phát hiện ra một lỗ hổng trong trình duyệt AI có thể giúp hacker đánh cắp các dữ liệu nhạy cảm và dẫn người dùng đến các trang web độc hại
Tại nhiều bệnh viện ở Canada, hầu hết các bác sĩ và y tá đang sử dụng các công cụ trí tuệ nhân tạo (AI) công khai như ChatGPT, Claude, Copilot hay Gemini để soạn thảo ghi chú lâm sàng, tóm tắt giấy ra viện hoặc tổng hợp dữ liệu bệnh án. Những tiện ích này giúp rút ngắn thời gian xử lý hồ sơ, nhưng cũng kéo theo các rủi ro an ninh mạng khó lường.
Google vừa cảnh báo 1,8 tỷ người dùng Gmail về một mối đe dọa an ninh mạng mới mang tên “tiêm lệnh gián tiếp” (indirect prompt injections), trong đó tin tặc giấu các lệnh độc hại bên trong email.
Theo báo cáo mới từ bộ phận nghiên cứu DORA của Google, 90% nhân viên trong lĩnh vực công nghệ trên toàn cầu đang sử dụng trí tuệ nhân tạo (AI) trong công việc, chủ yếu cho các tác vụ viết và chỉnh sửa mã. Con số này tăng 14% so với năm ngoái, phản ánh xu hướng bùng nổ ứng dụng AI trong phát triển phần mềm.
Ngày 14/11, Ấn Độ triển khai các quy định bảo mật mới, yêu cầu các công ty như Meta, Google, OpenAI… hạn chế thu thập dữ liệu cá nhân và trao quyền kiểm soát thông tin nhiều hơn cho người dùng.
Google vừa ra mắt tính năng “AI Inbox”, có khả năng tóm tắt toàn bộ Email của bạn. Hãng công nghệ này cam kết không dùng dữ liệu của người dùng để huấn luyện AI.
Đại diện Google cho hay, công ty này sẽ chính thức cho ra mắt kính tích hợp công nghệ trí tuệ nhân tạo (AI) vào năm 2026, nhằm cạnh tranh trực tiếp với Meta trong cuộc đua chế tạo thiết bị AI chưa có hồi kết .
Dù là những nhân tố chính thúc đẩy sự phát triển của AI, ở Việt Nam, Gen Z vẫn tiếp cận công nghệ này với sự cẩn trọng nhất định cùng những kỳ vọng rõ ràng về cách thức hoạt động của các nhà cung cấp công nghệ. Cùng với đó là những lo lắng được đưa ra…
Theo báo cáo của OECD dựa trên khảo sát 280.000 giáo viên và lãnh đạo trường tại 17.000 trường trung học cơ sở trên toàn thế giới, cứ 3 giáo viên thì có 1 người hiện đang sử dụng AI trong công việc giảng dạy và quản lý. Tuy nhiên, khoảng 29% trong số đó cho biết họ cần được đào tạo chuyên sâu hơn về cách ứng dụng AI một cách hiệu quả và có trách nhiệm.
Tại hội thảo góp ý Dự thảo Luật Công nghệ cao (sửa đổi), các chuyên gia và đại biểu tập trung làm rõ khái niệm, phạm vi và cơ chế ưu đãi, đồng thời đề xuất hoàn thiện chính sách để phù hợp thực tiễn.