เลเยอร์การระบุตัวตนหายไปจาก AI kill chain 

การระบุตัวตนกำลังกลายมาเป็นสิ่งสำคัญในการบรรลุเป้าหมายในการกำกับดูแล AI และป้องกันภัยคุกคามสมัยใหม่
Silverfort ภาพ
แบนเนอร์บล็อก AI Kill Chain

NVIDIA เพิ่งเผยแพร่เฟรมเวิร์กอันทรงพลัง “The AI ​​Kill Chain” ซึ่งแสดงแผนที่รูปแบบการโจมตีแอปพลิเคชันที่ใช้ AI นี่เป็นหนึ่งในความพยายามที่ชัดเจนที่สุดในการสร้างโครงสร้างให้กับขอบเขตความปลอดภัยที่วุ่นวายมากขึ้นเรื่อยๆ เฟรมเวิร์กนี้แสดงให้เห็นว่าฝ่ายตรงข้ามเปลี่ยนจากการลาดตระเวนและการโจมตีข้อมูลไปสู่การใช้ประโยชน์และการสั่งการและควบคุมอย่างไร ช่วยให้ทีมรักษาความปลอดภัยมีภาษากลางในการทำความเข้าใจภัยคุกคามเฉพาะด้าน AI 

สิ่งที่ทำให้สิ่งนี้มีคุณค่าคือมันสะท้อนเส้นโค้งวุฒิภาวะที่เราพบเห็นในความมั่นคงปลอดภัยไซเบอร์แบบดั้งเดิม เมื่อเราเรียนรู้ที่จะจำลองวิธีคิดของผู้โจมตี เราก็สามารถออกแบบการป้องกันที่คาดการณ์ล่วงหน้าได้มากกว่าที่จะตอบสนอง แต่ในขณะที่ ระบบ AI พัฒนาจากโมเดลแบบพาสซีฟไปเป็นตัวแทนอัตโนมัติเรากำลังเผชิญกับสิ่งใหม่: ตัวแทนเหล่านี้มีข้อมูลประจำตัว เข้าถึงทรัพยากรที่ละเอียดอ่อน และดำเนินการแทนผู้ใช้ แต่พฤติกรรมของพวกเขากลับคาดเดาได้ยากกว่ามนุษย์ทั่วไป นั่นเป็นเหตุผลว่าทำไมอัตลักษณ์จึงต้องเป็นจุดสนใจ ไม่ใช่แค่สิ่งที่ตัวแทนสามารถทำได้ แต่ต้องรวมถึงว่าตัวแทนกำลังดำเนินการในฐานะใคร และอยู่ภายใต้อำนาจของใคร 

การเปลี่ยนแปลงจากระบบไปสู่ตัวแสดง

ในสถาปัตยกรรมแบบเดิม ระบบจะประมวลผลอินพุต แต่ในสภาพแวดล้อมที่ขับเคลื่อนด้วย AI ระบบจะทำหน้าที่ 

เอเจนต์ AI จะสืบค้นฐานข้อมูล ส่งข้อความ เรียกใช้งานเวิร์กโฟลว์ และบางครั้งก็ตัดสินใจเชิงนโยบาย เอเจนต์เหล่านี้เปรียบเสมือนผู้มีบทบาทใหม่ในองค์กร แต่ละเอเจนต์ทำงานภายใต้อัตลักษณ์ที่ประกอบด้วยข้อมูลประจำตัว สิทธิ์อนุญาต และรูปแบบพฤติกรรม 

ตัวตนนั้นคือสิ่งที่เปลี่ยนระบบ AI จากแบบจำลองให้กลายเป็นตัวแทน และเช่นเดียวกับผู้ใช้มนุษย์หรือ บัญชีบริการข้อมูลประจำตัวเหล่านั้นอาจถูกแฮ็ก ได้รับอนุญาตมากเกินไป หรือไม่ได้รับการตรวจสอบ การเปลี่ยนแปลงนี้จะเปลี่ยนแปลงวิธีที่เราตีความทุกขั้นตอนของ Kill Chain 

การลาดตระเวน ไม่ใช่แค่เรื่องระบบการทำแผนที่เท่านั้น แต่มันเกี่ยวกับการค้นพบว่ามีตัวแทนใดบ้าง เข้าถึงอะไรได้บ้าง และเป็นตัวแทนของใคร 

การแสวงหาผลประโยชน์ เกิดขึ้นเมื่อผู้โจมตีบิดเบือนตรรกะของตัวแทนเพื่อดำเนินการที่ถูกต้องตามกฎหมายด้วยเจตนาที่ผิดกฎหมาย 

ควบคุมและสั่งการ เปลี่ยนจากการเข้าถึงระยะไกลไปเป็นการควบคุมที่มอบหมาย โดยใช้ข้อมูลประจำตัวที่เชื่อถือได้ของตัวแทนเพื่อดำเนินการอย่างมองไม่เห็นภายในสภาพแวดล้อม 

ทันทีที่เรามองการโจมตีของ AI ผ่านเลนส์แห่งอัตลักษณ์ ปัญหาจะเปลี่ยนไป แทนที่จะถามว่า "เราจะปกป้องโมเดลได้อย่างไร" เราควรถามว่า "เราจะควบคุมว่าโมเดลทำหน้าที่อย่างไร" 

สถานการณ์ที่กำลังเคลื่อนไหว

ลองนึกภาพผู้ช่วย AI ด้านการเงินที่ถูกสร้างขึ้นมาเพื่อกระทบยอดใบแจ้งหนี้ ระบบนี้ผสานรวมกับระบบการชำระเงินและมอบข้อมูลประจำตัวเพื่ออนุมัติธุรกรรมขนาดเล็กโดยอัตโนมัติ การแจ้งเตือนที่เป็นอันตรายจะเปลี่ยนแปลงตรรกะที่กำหนดคำว่า "ขนาดเล็ก" อย่างแนบเนียน และตัวแทนจะเริ่มอนุมัติการโอนเงินขนาดใหญ่ ทั้งหมดนี้อยู่ภายใต้สิทธิ์ที่ได้รับอนุญาต 

การตรวจจับความผิดปกติไม่ได้แจ้งเตือน เพราะในทางเทคนิคแล้วไม่มีอะไรที่ละเมิดนโยบาย การละเมิดไม่ได้เกิดจากความล้มเหลวของโมเดล แต่เกิดจากการใช้งานข้อมูลประจำตัวในทางที่ผิด ระบบกำลังทำในสิ่งที่ได้รับอนุญาตให้ทำ แต่อยู่ภายใต้การตัดสินที่ผิดพลาด 

นี่คือจุดที่อัตลักษณ์กลายมาเป็นเนื้อเยื่อเกี่ยวพันใน AI Kill Chain แต่ละขั้นตอน (การลาดตระเวน การใช้ประโยชน์ และการควบคุม) ขึ้นอยู่กับการมองเห็นว่าใครหรือสิ่งใดกำลังกระทำ อยู่ภายใต้อำนาจของใคร และอยู่ในขอบเขตใด 

การเปลี่ยนโซ่การฆ่าให้เป็นโซ่ความไว้วางใจ

ความปลอดภัยของข้อมูลประจำตัวนำมาซึ่งวินัยที่เชื่อมโยงโดยตรงกับการป้องกัน AI: สิทธิ์น้อยที่สุด ต่อเนื่อง การรับรองเส้นฐานพฤติกรรม และการระบุแหล่งที่มาที่ตรวจสอบย้อนกลับได้ เมื่อนำมารวมกันแล้ว สิ่งเหล่านี้จะเปลี่ยนการควบคุมเชิงรับเป็นการรับรองเชิงรุก ผมจะเรียกสิ่งนี้ว่าห่วงโซ่ความไว้วางใจสำหรับ AI 

ในห่วงโซ่นั้น: 

  • การกระทำทุกอย่างมีบริบท: ใครเป็นผู้ริเริ่ม ในนามของใคร และอยู่ในขอบเขตใด 
  • การเบี่ยงเบนจากพฤติกรรมที่คาดหวังทุกประการสามารถสังเกต ตรวจสอบ และควบคุมได้ 

การเชื่อมโยงโมเดลตามวงจรชีวิต เช่น AI Kill Chain กับการควบคุมที่รับรู้ตัวตน ช่วยให้เราเริ่มปิดวงจรระหว่างวิธีการโจมตีและผู้ที่อนุญาตให้โจมตีได้ 

มองไปข้างหน้า

เมื่อเวลาผ่านไป การระบุตัวตนจะกลายเป็นชั้นจัดระเบียบสำหรับการกำกับดูแล AI เช่นเดียวกับที่เราเคยรวมศูนย์การจัดการการเข้าถึงสำหรับผู้ใช้ที่เป็นมนุษย์ เร็วๆ นี้เราจะทำแบบเดียวกันนี้กับตัวแทน AIเราจะกำหนด ตรวจสอบ และพิสูจน์ตัวตนผู้มีส่วนร่วมทางดิจิทัลทุกคนในองค์กร 

AI Kill Chain ช่วยให้เราเห็นว่าศัตรูเคลื่อนไหวอย่างไร 

ตัวตนบอกเราว่าพวกเขาเคลื่อนผ่านใคร 

การนำมุมมองทั้งสองมารวมกันเป็นวิธีที่เราเปลี่ยน AI จากระบบที่คลุมเครือให้กลายเป็นระบบที่น่าเชื่อถือ ไม่ใช่ด้วยการชะลอนวัตกรรม แต่ด้วยการทำให้ความรับผิดชอบสามารถปรับขนาดได้ 

อยากรู้ว่าในทางปฏิบัติจะเป็นอย่างไร? อ่านของเรา การสลายตัวของ GTG-1002แคมเปญทางไซเบอร์เชิงตัวแทนฉบับแรกที่ได้รับการบันทึกไว้ และสิ่งที่สื่อถึงผู้ปกป้อง 

เรากล้าที่จะผลักดันการรักษาความปลอดภัยข้อมูลประจำตัวไปไกลยิ่งขึ้น

ค้นพบสิ่งที่เป็นไปได้

ตั้งค่าการสาธิตเพื่อดู Silverfort แพลตฟอร์มการรักษาความปลอดภัยข้อมูลประจำตัวในการดำเนินการ