Trong văn phòng Singapore đẹp mắt của Google tại Block 80, Cấp 3, Mark Johnston đã đứng trước một phòng của các nhà báo công nghệ lúc 1:30 chiều với sự thừa nhận đáng kinh ngạc: Sau năm thập kỷ tiến hóa an ninh mạng, các hậu vệ vẫn đang thua cuộc chiến tranh. Trong 69% các sự cố ở Nhật Bản và Châu Á Thái Bình Dương, các tổ chức đã được thông báo về các vi phạm của chính họ bởi các thực thể bên ngoài, Giám đốc văn phòng của Google Cloud về CISO cho Châu Á Thái Bình Dương tiết lộ, bài thuyết trình của ông cho thấy một thống kê thiệt hại – hầu hết các công ty thậm chí không thể phát hiện ra khi họ bị vi phạm.
Những gì diễn ra trong thời gian an ninh mạng kéo dài một giờ trong thời đại AI, là một đánh giá trung thực về cách các công nghệ AI của Google Cloud đang cố gắng đảo ngược những thất bại phòng thủ, ngay cả khi các công cụ trí tuệ nhân tạo tương tự trao quyền cho những kẻ tấn công có khả năng chưa từng thấy.

Bối cảnh lịch sử: 50 năm thất bại phòng thủ
Cuộc khủng hoảng không phải là mới. Johnston đã truy tìm vấn đề trở lại với người tiên phong an ninh mạng của James P. Anderson, quan sát rằng các hệ thống mà chúng ta sử dụng thực sự không tự bảo vệ mình – một thách thức vẫn tồn tại bất chấp nhiều thập kỷ tiến bộ công nghệ. Những gì James P Anderson nói lại vào năm 1972 vẫn được áp dụng cho đến ngày nay, ông John Johnston nói, nhấn mạnh cách các vấn đề bảo mật cơ bản vẫn chưa được giải quyết ngay cả khi công nghệ phát triển.
Sự kiên trì của các lỗ hổng cơ bản Hợp chất thách thức này. Dữ liệu trí thông minh mối đe dọa của Google Cloud cho thấy rằng, hơn 76% các vi phạm bắt đầu với những điều cơ bản – lỗi cấu hình và các thỏa hiệp thông tin đã gây ra các tổ chức trong nhiều thập kỷ. Johnston đã trích dẫn một ví dụ gần đây: Tháng trước, một sản phẩm rất phổ biến mà hầu hết các tổ chức đã sử dụng tại một thời điểm nào đó, Microsoft SharePoint, cũng có cái mà chúng ta gọi là lỗ hổng không ngày nào và trong thời gian đó, nó đã bị tấn công liên tục và bị lạm dụng.
Cuộc đua vũ trang AI: Người bảo vệ so với những kẻ tấn công

Kevin Curran, thành viên cấp cao của IEEE và là giáo sư về an ninh mạng tại Đại học Ulster, mô tả cảnh quan hiện tại là một cuộc đua vũ trang cao, nơi cả hai đội an ninh mạng và các diễn viên đe dọa sử dụng các công cụ AI để vượt qua nhau. Đối với những người bảo vệ, AI là một tài sản có giá trị, theo ông Curran Curran giải thích trong một ghi chú truyền thông. Các doanh nghiệp đã triển khai AI tổng quát và các công cụ tự động hóa khác để phân tích một lượng lớn dữ liệu trong thời gian thực và xác định sự bất thường.
Tuy nhiên, các công nghệ tương tự có lợi cho những kẻ tấn công. Đối với các tác nhân đe dọa, AI có thể hợp lý hóa các cuộc tấn công lừa đảo, tự động hóa việc tạo phần mềm độc hại và giúp quét các mạng cho các lỗ hổng, theo Curran Curran cảnh báo. Bản chất sử dụng kép của AI tạo ra những gì Johnston gọi là tình huống khó xử của hậu vệ.
Các sáng kiến của Google Cloud AI nhằm mục đích nghiêng các thang đo này có lợi cho những người bảo vệ. Johnston lập luận rằng, AI AI có cơ hội tốt nhất để nâng cao tình trạng khó xử của hậu vệ và nghiêng quy mô Lĩnh vực mạng để mang lại cho những người bảo vệ một lợi thế quyết định so với những kẻ tấn công. Cách tiếp cận của công ty tập trung vào những gì họ gọi là vô số trường hợp sử dụng cho AI tổng quát trong phòng thủ, phát hiện lỗ hổng, tình báo đe dọa, tạo mã an toàn và ứng phó sự cố.
Project Zero’s Large Ngủ: AI tìm thấy những gì con người bỏ lỡ
Một trong những ví dụ hấp dẫn nhất của Google về phòng thủ do AI cung cấp là sáng kiến Ngủ lớn của Project Zero, sử dụng các mô hình ngôn ngữ lớn để xác định các lỗ hổng trong mã trong thế giới thực. Johnston đã chia sẻ các số liệu ấn tượng: Giấc ngủ lớn đã tìm thấy một lỗ hổng trong một thư viện nguồn mở bằng các công cụ AI thế hệ – lần đầu tiên chúng tôi tin rằng một lỗ hổng được tìm thấy bởi một dịch vụ AI.
Sự tiến hóa của chương trình cho thấy khả năng ngày càng tăng của AI. Tháng trước, chúng tôi đã thông báo rằng chúng tôi đã tìm thấy hơn 20 lỗ hổng trong các gói khác nhau, ông John Johnston lưu ý. Tuy nhiên, hôm nay, khi tôi nhìn vào bảng điều khiển giấc ngủ lớn, tôi đã tìm thấy 47 lỗ hổng vào tháng 8 đã được tìm thấy bởi giải pháp này.
Sự tiến bộ từ phân tích thủ công của con người sang khám phá hỗ trợ AI-A-A-Agained đại diện cho những gì Johnston mô tả như là một sự thay đổi từ các hoạt động bảo mật của thủ công sang bán tự trị, trong đó, Gem Gemini thúc đẩy hầu hết các nhiệm vụ trong vòng đời bảo mật luôn luôn, việc ủy thác các nhiệm vụ không thể tự động hóa với sự tự tin hoặc chính xác đầy đủ.
Nghịch lý tự động hóa: Hứa và nguy hiểm
Lộ trình của Google Cloud hình dung sự tiến triển qua bốn giai đoạn: các hoạt động bảo mật thủ công, hỗ trợ, bán tự trị và tự trị. Trong giai đoạn bán tự trị, các hệ thống AI sẽ xử lý các nhiệm vụ thường xuyên trong khi leo thang các quyết định phức tạp cho các nhà khai thác của con người. Giai đoạn tự trị cuối cùng sẽ thấy AI đã thúc đẩy vòng đời bảo mật đến kết quả tích cực thay mặt cho người dùng.

Tuy nhiên, tự động hóa này giới thiệu các lỗ hổng mới. Khi được hỏi về những rủi ro của sự phụ thuộc quá mức đối với các hệ thống AI, Johnston đã thừa nhận thách thức: Có khả năng dịch vụ này có thể bị tấn công và thao túng. Hiện tại, khi bạn thấy các công cụ mà các tác nhân này được đưa vào, không có khuôn khổ thực sự tốt để ủy quyền đó là công cụ thực tế không bị thay đổi.
Curran lặp lại mối quan tâm này: Rủi ro đối với các công ty là các nhóm an ninh của họ sẽ trở nên quá sức đối trên AI, có khả năng vượt qua sự phán xét của con người và khiến các hệ thống dễ bị tấn công.
Thực hiện trong thế giới thực: Kiểm soát bản chất không thể đoán trước của AI
Cách tiếp cận của Google Cloud bao gồm các biện pháp bảo vệ thực tế để giải quyết một trong những đặc điểm có vấn đề nhất của AI: xu hướng tạo ra các phản ứng không liên quan hoặc không phù hợp. Johnston minh họa thách thức này với một ví dụ cụ thể về những sự không phù hợp theo ngữ cảnh có thể tạo ra rủi ro kinh doanh.
Nếu bạn có một cửa hàng bán lẻ, thay vào đó, bạn không nên có lời khuyên y tế, thì John Johnston giải thích, mô tả cách các hệ thống AI có thể chuyển sang các lĩnh vực không liên quan một cách bất ngờ. Đôi khi những công cụ này có thể làm điều đó. Sự không thể đoán trước đại diện cho một trách nhiệm đáng kể đối với các doanh nghiệp triển khai các hệ thống AI đối mặt với khách hàng, trong đó các phản hồi ngoài chủ đề có thể gây nhầm lẫn cho khách hàng, làm hỏng danh tiếng thương hiệu hoặc thậm chí tạo ra tiếp xúc hợp pháp.
Công nghệ áo giáp mô hình của Google giải quyết điều này bằng cách hoạt động như một lớp bộ lọc thông minh. Có các bộ lọc và sử dụng các khả năng của chúng tôi để kiểm tra sức khỏe trên các phản hồi đó cho phép một tổ chức có được sự tự tin, ông John Johnston lưu ý. Hệ thống sàng lọc các đầu ra AI cho thông tin nhận dạng cá nhân, lọc nội dung không phù hợp với bối cảnh kinh doanh và chặn các phản hồi có thể là ngoài thương hiệu cho trường hợp sử dụng dự định của tổ chức.
Công ty cũng giải quyết mối quan tâm ngày càng tăng về triển khai AI Shadow. Các tổ chức đang khám phá hàng trăm công cụ AI trái phép trong mạng của họ, tạo ra những khoảng trống bảo mật lớn. Các công nghệ bảo vệ dữ liệu nhạy cảm của Google cố gắng giải quyết vấn đề này bằng cách quét trong nhiều nhà cung cấp đám mây và hệ thống tại chỗ.
Thách thức quy mô: Hạn chế về ngân sách so với các mối đe dọa ngày càng tăng
Johnston xác định các hạn chế về ngân sách là thách thức chính đối với Cisos châu Á Thái Bình Dương, xảy ra chính xác khi các tổ chức phải đối mặt với các mối đe dọa mạng leo thang. Nghịch lý rất rõ ràng: khi khối lượng tấn công tăng lên, các tổ chức thiếu nguồn lực để đáp ứng đầy đủ.
Chúng tôi nhìn vào các số liệu thống kê và nói một cách khách quan, chúng tôi sẽ thấy nhiều tiếng ồn hơn – có thể không cực kỳ tinh vi, nhưng nhiều tiếng ồn hơn là chi phí cao hơn và điều đó chi phí nhiều hơn để đối phó, ông John Johnston quan sát. Sự gia tăng tần suất tấn công, ngay cả khi các cuộc tấn công cá nhân không nhất thiết phải tiến bộ hơn, tạo ra một sự thoát nước tài nguyên mà nhiều tổ chức không thể duy trì.
Áp lực tài chính tăng cường cảnh quan bảo mật đã phức tạp. Họ đang tìm kiếm các đối tác có thể giúp tăng tốc rằng mà không phải thuê thêm 10 nhân viên hoặc nhận được ngân sách lớn hơn, ông John Johnston giải thích, mô tả cách các nhà lãnh đạo an ninh phải đối mặt với áp lực để làm nhiều hơn với các nguồn lực hiện có trong khi các mối đe dọa nhân lên.
Câu hỏi quan trọng vẫn còn
Mặc dù khả năng đầy hứa hẹn của Google Cloud AI, một số câu hỏi quan trọng vẫn tồn tại. Khi bị thách thức về việc liệu các hậu vệ có thực sự chiến thắng cuộc chạy đua vũ trang này hay không, Johnston đã thừa nhận: Chúng tôi chưa thấy các cuộc tấn công mới lạ sử dụng AI cho đến nay, nhưng lưu ý rằng những kẻ tấn công đang sử dụng AI để mở rộng quy mô các phương pháp tấn công hiện tại và tạo ra một loạt các cơ hội trong một số khía cạnh của cuộc tấn công.
Các tuyên bố hiệu quả cũng yêu cầu xem xét kỹ lưỡng. Trong khi Johnston trích dẫn sự cải thiện 50% trong tốc độ viết báo cáo sự cố, ông thừa nhận rằng độ chính xác vẫn là một thách thức: Có những điểm không chính xác, chắc chắn. Nhưng con người cũng phạm sai lầm. Sự thừa nhận nêu bật những hạn chế liên tục của việc triển khai bảo mật AI hiện tại.
Nhìn về phía trước: Chuẩn bị sau quan trọng
Ngoài việc triển khai AI hiện tại, Google Cloud đã chuẩn bị cho sự thay đổi mô hình tiếp theo. Johnston tiết lộ rằng công ty đã triển khai mật mã sau tứ chi giữa các trung tâm dữ liệu của chúng tôi theo quy mô, định vị cho các mối đe dọa điện toán lượng tử trong tương lai có thể khiến mã hóa hiện tại trở nên lỗi thời.
Phán quyết: Yêu cầu lạc quan thận trọng
Việc tích hợp AI vào an ninh mạng đại diện cho cả cơ hội chưa từng có và rủi ro đáng kể. Mặc dù các công nghệ AI của Google Cloud thể hiện khả năng thực sự trong phát hiện tính dễ bị tổn thương, phân tích mối đe dọa và phản ứng tự động, các công nghệ tương tự trao quyền cho những kẻ tấn công với khả năng nâng cao để trinh sát, kỹ thuật xã hội và trốn tránh.
Đánh giá của Curran cung cấp một quan điểm cân bằng: Cho biết công nghệ đã phát triển nhanh như thế nào, các tổ chức sẽ phải áp dụng một chính sách an ninh mạng toàn diện và chủ động hơn nếu họ muốn đi trước những kẻ tấn công. Rốt cuộc, các cuộc tấn công mạng là vấn đề ‘khi’ ‘không’ nếu ‘và AI sẽ chỉ tăng tốc số lượng cơ hội.
Thành công của an ninh mạng do AI cung cấp cuối cùng không phụ thuộc vào chính công nghệ, mà là cách các tổ chức chu đáo thực hiện các công cụ này trong khi duy trì sự giám sát của con người và giải quyết vệ sinh bảo mật cơ bản. Như Johnston đã kết luận, chúng ta nên áp dụng những điều này trong các phương pháp có nguy cơ thấp, thì nhấn mạnh sự cần thiết phải thực hiện đo lường thay vì tự động hóa bán buôn.
Cuộc cách mạng AI trong an ninh mạng đang được tiến hành, nhưng chiến thắng sẽ thuộc về những người có thể cân bằng sự đổi mới với quản lý rủi ro thận trọng – không phải những người chỉ đơn giản là triển khai các thuật toán tiên tiến nhất.
Xem thêm: Google Cloud tiết lộ AI Ally cho các nhóm bảo mật
Bạn muốn tìm hiểu thêm về AI và dữ liệu lớn từ các nhà lãnh đạo ngành? Kiểm tra AI & Big Data Expo Diễn ra tại Amsterdam, California và London. Sự kiện toàn diện là một phần của Techex và được đồng định vị với các sự kiện công nghệ hàng đầu khác, nhấp vào đây Để biết thêm thông tin.
Tin tức AI được cung cấp bởi TechForge Media. Khám phá các sự kiện và hội thảo trên web về công nghệ doanh nghiệp sắp tới khác đây.