NVIDIA เพิ่งเผยแพร่เฟรมเวิร์กอันทรงพลัง “The AI Kill Chain” ซึ่งแสดงแผนที่รูปแบบการโจมตีแอปพลิเคชันที่ใช้ AI นี่เป็นหนึ่งในความพยายามที่ชัดเจนที่สุดในการสร้างโครงสร้างให้กับขอบเขตความปลอดภัยที่วุ่นวายมากขึ้นเรื่อยๆ เฟรมเวิร์กนี้แสดงให้เห็นว่าฝ่ายตรงข้ามเปลี่ยนจากการลาดตระเวนและการโจมตีข้อมูลไปสู่การใช้ประโยชน์และการสั่งการและควบคุมอย่างไร ช่วยให้ทีมรักษาความปลอดภัยมีภาษากลางในการทำความเข้าใจภัยคุกคามเฉพาะด้าน AI
สิ่งที่ทำให้สิ่งนี้มีคุณค่าคือมันสะท้อนเส้นโค้งวุฒิภาวะที่เราพบเห็นในความมั่นคงปลอดภัยไซเบอร์แบบดั้งเดิม เมื่อเราเรียนรู้ที่จะจำลองวิธีคิดของผู้โจมตี เราก็สามารถออกแบบการป้องกันที่คาดการณ์ล่วงหน้าได้มากกว่าที่จะตอบสนอง แต่ในขณะที่ ระบบ AI พัฒนาจากโมเดลแบบพาสซีฟไปเป็นตัวแทนอัตโนมัติเรากำลังเผชิญกับสิ่งใหม่: ตัวแทนเหล่านี้มีข้อมูลประจำตัว เข้าถึงทรัพยากรที่ละเอียดอ่อน และดำเนินการแทนผู้ใช้ แต่พฤติกรรมของพวกเขากลับคาดเดาได้ยากกว่ามนุษย์ทั่วไป นั่นเป็นเหตุผลว่าทำไมอัตลักษณ์จึงต้องเป็นจุดสนใจ ไม่ใช่แค่สิ่งที่ตัวแทนสามารถทำได้ แต่ต้องรวมถึงว่าตัวแทนกำลังดำเนินการในฐานะใคร และอยู่ภายใต้อำนาจของใคร
การเปลี่ยนแปลงจากระบบไปสู่ตัวแสดง
ในสถาปัตยกรรมแบบเดิม ระบบจะประมวลผลอินพุต แต่ในสภาพแวดล้อมที่ขับเคลื่อนด้วย AI ระบบจะทำหน้าที่
เอเจนต์ AI จะสืบค้นฐานข้อมูล ส่งข้อความ เรียกใช้งานเวิร์กโฟลว์ และบางครั้งก็ตัดสินใจเชิงนโยบาย เอเจนต์เหล่านี้เปรียบเสมือนผู้มีบทบาทใหม่ในองค์กร แต่ละเอเจนต์ทำงานภายใต้อัตลักษณ์ที่ประกอบด้วยข้อมูลประจำตัว สิทธิ์อนุญาต และรูปแบบพฤติกรรม
ตัวตนนั้นคือสิ่งที่เปลี่ยนระบบ AI จากแบบจำลองให้กลายเป็นตัวแทน และเช่นเดียวกับผู้ใช้มนุษย์หรือ บัญชีบริการข้อมูลประจำตัวเหล่านั้นอาจถูกแฮ็ก ได้รับอนุญาตมากเกินไป หรือไม่ได้รับการตรวจสอบ การเปลี่ยนแปลงนี้จะเปลี่ยนแปลงวิธีที่เราตีความทุกขั้นตอนของ Kill Chain
การลาดตระเวน ไม่ใช่แค่เรื่องระบบการทำแผนที่เท่านั้น แต่มันเกี่ยวกับการค้นพบว่ามีตัวแทนใดบ้าง เข้าถึงอะไรได้บ้าง และเป็นตัวแทนของใคร
การแสวงหาผลประโยชน์ เกิดขึ้นเมื่อผู้โจมตีบิดเบือนตรรกะของตัวแทนเพื่อดำเนินการที่ถูกต้องตามกฎหมายด้วยเจตนาที่ผิดกฎหมาย
ควบคุมและสั่งการ เปลี่ยนจากการเข้าถึงระยะไกลไปเป็นการควบคุมที่มอบหมาย โดยใช้ข้อมูลประจำตัวที่เชื่อถือได้ของตัวแทนเพื่อดำเนินการอย่างมองไม่เห็นภายในสภาพแวดล้อม
ทันทีที่เรามองการโจมตีของ AI ผ่านเลนส์แห่งอัตลักษณ์ ปัญหาจะเปลี่ยนไป แทนที่จะถามว่า "เราจะปกป้องโมเดลได้อย่างไร" เราควรถามว่า "เราจะควบคุมว่าโมเดลทำหน้าที่อย่างไร"
สถานการณ์ที่กำลังเคลื่อนไหว
ลองนึกภาพผู้ช่วย AI ด้านการเงินที่ถูกสร้างขึ้นมาเพื่อกระทบยอดใบแจ้งหนี้ ระบบนี้ผสานรวมกับระบบการชำระเงินและมอบข้อมูลประจำตัวเพื่ออนุมัติธุรกรรมขนาดเล็กโดยอัตโนมัติ การแจ้งเตือนที่เป็นอันตรายจะเปลี่ยนแปลงตรรกะที่กำหนดคำว่า "ขนาดเล็ก" อย่างแนบเนียน และตัวแทนจะเริ่มอนุมัติการโอนเงินขนาดใหญ่ ทั้งหมดนี้อยู่ภายใต้สิทธิ์ที่ได้รับอนุญาต
การตรวจจับความผิดปกติไม่ได้แจ้งเตือน เพราะในทางเทคนิคแล้วไม่มีอะไรที่ละเมิดนโยบาย การละเมิดไม่ได้เกิดจากความล้มเหลวของโมเดล แต่เกิดจากการใช้งานข้อมูลประจำตัวในทางที่ผิด ระบบกำลังทำในสิ่งที่ได้รับอนุญาตให้ทำ แต่อยู่ภายใต้การตัดสินที่ผิดพลาด
นี่คือจุดที่อัตลักษณ์กลายมาเป็นเนื้อเยื่อเกี่ยวพันใน AI Kill Chain แต่ละขั้นตอน (การลาดตระเวน การใช้ประโยชน์ และการควบคุม) ขึ้นอยู่กับการมองเห็นว่าใครหรือสิ่งใดกำลังกระทำ อยู่ภายใต้อำนาจของใคร และอยู่ในขอบเขตใด
การเปลี่ยนโซ่การฆ่าให้เป็นโซ่ความไว้วางใจ
ความปลอดภัยของข้อมูลประจำตัวนำมาซึ่งวินัยที่เชื่อมโยงโดยตรงกับการป้องกัน AI: สิทธิ์น้อยที่สุด ต่อเนื่อง การรับรองเส้นฐานพฤติกรรม และการระบุแหล่งที่มาที่ตรวจสอบย้อนกลับได้ เมื่อนำมารวมกันแล้ว สิ่งเหล่านี้จะเปลี่ยนการควบคุมเชิงรับเป็นการรับรองเชิงรุก ผมจะเรียกสิ่งนี้ว่าห่วงโซ่ความไว้วางใจสำหรับ AI
ในห่วงโซ่นั้น:
- การกระทำทุกอย่างมีบริบท: ใครเป็นผู้ริเริ่ม ในนามของใคร และอยู่ในขอบเขตใด
- การเบี่ยงเบนจากพฤติกรรมที่คาดหวังทุกประการสามารถสังเกต ตรวจสอบ และควบคุมได้
การเชื่อมโยงโมเดลตามวงจรชีวิต เช่น AI Kill Chain กับการควบคุมที่รับรู้ตัวตน ช่วยให้เราเริ่มปิดวงจรระหว่างวิธีการโจมตีและผู้ที่อนุญาตให้โจมตีได้
มองไปข้างหน้า
เมื่อเวลาผ่านไป การระบุตัวตนจะกลายเป็นชั้นจัดระเบียบสำหรับการกำกับดูแล AI เช่นเดียวกับที่เราเคยรวมศูนย์การจัดการการเข้าถึงสำหรับผู้ใช้ที่เป็นมนุษย์ เร็วๆ นี้เราจะทำแบบเดียวกันนี้กับตัวแทน AIเราจะกำหนด ตรวจสอบ และพิสูจน์ตัวตนผู้มีส่วนร่วมทางดิจิทัลทุกคนในองค์กร
AI Kill Chain ช่วยให้เราเห็นว่าศัตรูเคลื่อนไหวอย่างไร
ตัวตนบอกเราว่าพวกเขาเคลื่อนผ่านใคร
การนำมุมมองทั้งสองมารวมกันเป็นวิธีที่เราเปลี่ยน AI จากระบบที่คลุมเครือให้กลายเป็นระบบที่น่าเชื่อถือ ไม่ใช่ด้วยการชะลอนวัตกรรม แต่ด้วยการทำให้ความรับผิดชอบสามารถปรับขนาดได้
อยากรู้ว่าในทางปฏิบัติจะเป็นอย่างไร? อ่านของเรา การสลายตัวของ GTG-1002แคมเปญทางไซเบอร์เชิงตัวแทนฉบับแรกที่ได้รับการบันทึกไว้ และสิ่งที่สื่อถึงผู้ปกป้อง