OpenAI cùng Tập đoàn Thanh toán Quốc gia Ấn Độ (NPCI) và công ty Razorpay đang thử nghiệm hình thức thanh toán tự động bằng AI trên ChatGPT, đánh dấu bước tiến mới trong việc biến các trợ lý ảo thành công cụ giao dịch thông minh, an toàn và do người dùng kiểm soát.
Công ty bảo mật Radware vừa công bố phát hiện một lỗ hổng nghiêm trọng trong tính năng Deep Research của ChatGPT, có khả năng dẫn đến rò rỉ dữ liệu cá nhân từ tài khoản Gmail của người dùng. Ngay sau đó, OpenAI đã tiến hành khắc phục sự cố và cam kết tăng cường bảo mật cho hệ thống trí tuệ nhân tạo của mình.
Một lỗ hổng bảo mật nghiêm trọng vừa được phát hiện trên ChatGPT, được đặt tên là “Lỗ hổng ma” (ShadowLeak), cho phép tin tặc đánh cắp dữ liệu kinh doanh nhạy cảm của hàng triệu doanh nghiệp mà không cần bất kỳ tương tác nào từ người dùng.
Hơn một triệu người dùng ChatGPT bộc lộ dấu hiệu hoặc ý định tự tử trong các cuộc trò chuyện với chatbot mỗi tuần - theo ước tính mới được OpenAI công bố. Đây là lần đầu tiên công ty thừa nhận quy mô đáng lo ngại về tác động của trí tuệ nhân tạo đối với sức khỏe tinh thần con người.
Một sự cố nghiêm trọng liên quan đến quyền riêng tư vừa được phát hiện, cho thấy các đoạn hội thoại riêng tư của người dùng ChatGPT - bao gồm cả nội dung cá nhân và công việc - đã bị rò rỉ và xuất hiện trong báo cáo lưu lượng truy cập của Google Search Console (GSC). Điều đáng lo ngại là các quản trị viên trang web hoàn toàn không liên quan lại có thể đọc được những đoạn hội thoại này.
Một số người lựa chọn không sử dụng công cụ AI vì lo ngại mất khả năng tư duy, trong khi nhiều người khác lại đánh giá cao lợi ích mà AI mang lại. Song, các nghiên cứu gần đây cho thấy AI, đặc biệt là ChatGPT, có thể ảnh hưởng đáng kể đến hoạt động nhận thức của con người.
Các doanh nghiệp vừa và nhỏ vốn được xem là mục tiêu dễ tổn thương trong không gian số đang phải đối mặt với mối đe dọa bị tấn công mạng từ các phần mềm độc hại giả mạo những công cụ tin cậy như ChatGPT, Microsoft Office và Google Drive.
OpenAI mới đây bổ sung loạt tính năng kiểm soát dành cho phụ huynh trên ChatGPT, giúp tài khoản con trẻ được áp dụng bộ lọc nội dung phù hợp độ tuổi, giới hạn thời gian sử dụng và thông báo khi có dấu hiệu căng thẳng. Cha mẹ cần thiết lập cá nhân hóa để bảo vệ con trước những rủi ro từ AI.
Các chuyên gia an ninh mạng phát hiện một nhóm tin tặc đang tận dụng trí tuệ nhân tạo, trong đó có ChatGPT, để tạo ra phần mềm độc hại và thực hiện các chiến dịch lừa đảo đa ngôn ngữ nhằm vào các tổ chức, doanh nghiệp ở nhiều khu vực trên thế giới.
Các nghiên cứu mới cho thấy việc phụ thuộc vào trí tuệ nhân tạo trong viết lách đang khiến hoạt động nhận thức của con người suy yếu, từ khả năng ghi nhớ đến tư duy phản biện.
Theo khảo sát của Liên hiệp Phát sóng châu Âu (EBU), các trợ lý trí tuệ nhân tạo như ChatGPT, Gemini, Copilot và Perplexity thường cung cấp thông tin sai lệch hoặc thiếu chính xác trong hàng nghìn câu trả lời liên quan đến tin tức thời sự, đòi hỏi người dùng cần cẩn trọng khi dựa vào công cụ này để tra cứu thông tin quan trọng.
Sự cố kỹ thuật nghiêm trọng xảy ra vào ngày 18/11 vừa qua với công ty hạ tầng Internet Cloudflare đã làm gián đoạn hàng loạt dịch vụ trực tuyến quan trọng, trong đó có ChatGPT, mạng xã hội X và Facebook.
Intel thông báo rằng Tổng giám đốc điều hành (CEO) Lip-Bu Tan sẽ trực tiếp giám sát các hoạt động liên quan đến trí tuệ nhân tạo (AI) của tập đoàn, sau khi Giám đốc công nghệ (CTO) Sachin Katti rời công ty để gia nhập OpenAI, nhà phát triển của ChatGPT.
Tại hội thảo góp ý Dự thảo Luật Công nghệ cao (sửa đổi), các chuyên gia và đại biểu tập trung làm rõ khái niệm, phạm vi và cơ chế ưu đãi, đồng thời đề xuất hoàn thiện chính sách để phù hợp thực tiễn.