ความฉลาดทางข้อมูลเชิงกำเนิด

DARPA เปิดตัวการแข่งขันเพื่อสร้างผู้ปกป้องซอฟต์แวร์ AI

วันที่:

หมวกสีดำ ในการประกาศที่น่าประหลาดใจในการเปิดการแสดงปาฐกถาพิเศษของ Black Hat วันนี้ DARPA ได้เปิดเผยสิ่งที่เรียกว่า AI Cyber ​​Challenge (AIxCC) นั่นเป็นการแข่งขันสองปีเพื่อสร้างระบบแมชชีนเลิร์นนิงที่สามารถปกป้องซอฟต์แวร์และโครงสร้างพื้นฐานที่สำคัญได้

การแข่งขันซึ่งเริ่มในวันพุธจะแบ่งทีมกันเพื่อสร้างโมเดลที่สามารถระบุความเสี่ยงภายในโค้ด บล็อกการโจมตีจากช่องโหว่เหล่านั้น และแก้ไขข้อบกพร่องเหล่านี้ หวังว่าโมเดลเหล่านี้ เมื่อสามารถปกป้องแอปพลิเคชันโดยทั่วไปแล้ว จะสามารถปกป้องโครงสร้างพื้นฐานด้านไอทีในระดับซอฟต์แวร์ได้

Anthropic, OpenAI, Google และ Microsoft ได้ให้คำมั่นว่าจะให้คำแนะนำและซอฟต์แวร์สำหรับผู้เข้าร่วมการใช้งาน และ Open Source Security Foundation (OpenSSF) อยู่ในทีมด้วย

รายละเอียดความเป็นมา กฎ และกำหนดเวลาเพิ่มเติม สามารถพบได้ที่นี่.

“แรงผลักดันสำหรับเรื่องนี้มาจากภายใน DARPA และเมื่อเราติดต่อผู้คนอย่าง Anthropic และคนอื่นๆ เกี่ยวกับเรื่องนี้ พวกเขาบอกว่าพวกเขาคิดแบบเดียวกันทุกประการ” Perri Adams ผู้จัดการโครงการ AIxCC กล่าว ลงทะเบียน ในลาสเวกัสเมื่อวันก่อน เธอเสริมว่าทั้งหมดนี้มาพร้อมกัน “ในสภาพอากาศที่เราได้เห็นเทคโนโลยี AI ที่ยอดเยี่ยม”

“มีคนจำนวนมากที่เห็นว่า AI มีศักยภาพมหาศาลในการรักษาความปลอดภัยของโค้ด และนั่นเป็นโอกาสที่ยอดเยี่ยมจริงๆ” เธอกล่าวเสริม “สิ่งที่เรามุ่งเน้นคือการพยายามรักษาความปลอดภัยของซอฟต์แวร์ในวงกว้างที่สุดเท่าที่จะเป็นไปได้ ดังนั้นเราจึงพยายามจำลองความท้าทายเกี่ยวกับซอฟต์แวร์ที่ใช้งานทั่วไป เพราะนั่นคือสิ่งที่เราพบในระบบโครงสร้างพื้นฐานที่สำคัญ”

DARPA

Perri Adams ผู้จัดการโปรแกรม AIxCC ของ DARPA บอกผู้เข้าร่วม Black Hat ว่ามีคนนับล้านอยู่บนโต๊ะ

DARPA ศูนย์ประสาทการวิจัยของกองทัพสหรัฐฯ เชิญชวนผู้ที่ต้องการเข้าร่วมลงทะเบียน ไม่ว่าจะเป็น Open Track ที่ได้รับเงินสนับสนุนด้วยตนเองหรือ Funded Track ซึ่งอย่างหลังจะรับธุรกิจขนาดเล็กที่ได้รับการคัดเลือกมากถึงเจ็ดรายที่จะเข้าร่วม ให้มากถึง 1 ล้านเหรียญสหรัฐต่อการแข่งขัน การลงทะเบียนสำหรับพาร์ติชั่นที่ได้รับทุนจะต้องเข้ามาภายในวันที่ 19 กันยายน ในขณะที่ผู้เข้าแข่งขันโอเพ่นแทร็กมีเวลาลงทะเบียนถึงวันที่ 15 ธันวาคม

ในฤดูใบไม้ผลิปี 2024 ทั้งสองทีมจะแข่งขันกันในชุดการทดสอบเพื่อตัดสินคุณสมบัติสำหรับการแข่งขันรอบรองชนะเลิศ โดยทีม 20 อันดับแรกจะแข่งขันกันในการประชุม DEF CON ในปีหน้า ทีมห้าอันดับแรกในการแข่งขันนั้นจะได้รับเงินรางวัล 2 ล้านเหรียญสหรัฐ

ในปีต่อไปที่ DEF CON ในปี 2025 ห้าคนสุดท้ายจะแข่งขันกันเพื่อชิงรางวัลสูงสุด 4 ล้านดอลลาร์ โดยรองอันดับสอง 3 ล้านดอลลาร์ และอันดับสาม 1.5 ล้านดอลลาร์ ทีมจะต้องมีผู้อยู่อาศัยถาวรหรือพลเมืองสหรัฐอย่างน้อยหนึ่งคนในทีมจึงจะมีสิทธิ์เข้าร่วม

นั่นคือทั้งหมด 18.5 ล้านดอลลาร์ และ 7 ล้านดอลลาร์สำหรับธุรกิจขนาดเล็ก

“เมื่อผู้คนได้ยินเรื่องความปลอดภัยและ AI การประสานทั้งหมดจะเริ่มทำงาน แต่สิ่งนี้ไม่ได้เน้นที่ 'โมเดลมีความปลอดภัยหรือไม่' แต่ 'สมมติว่าเรามีเครื่องมือที่น่าทึ่งที่เรียกว่า AI แล้วเราจะนำมันไปใช้ในวงกว้างได้อย่างไร ซอฟต์แวร์'” Omkhar Arasaratnam ผู้จัดการทั่วไปของ OpenSSF กล่าวกับเรา

“หากคุณเป็นวิศวกรซอฟต์แวร์และคุณใช้ zlib บนโทรศัพท์หรือใน Linux ดิสทริบิวชันบนเดสก์ท็อปของคุณ ก็ยังคงเป็น zlib และเราต้องแน่ใจว่าใช้คุณสมบัติความปลอดภัยเดียวกัน”

แนวทางดังกล่าวฝังอยู่ใน AIxCC: ปกป้องรหัสไม่ว่าจะอยู่ที่ไหน หรือสำหรับเราแล้วดูเหมือนว่า

กล่องดำมากมาย

วันนี้ AI เป็นธีมที่กำลังดำเนินอยู่ อื่น หมวกสีดำ วิทยากรคนสำคัญ Maria Markstedter ผู้ก่อตั้ง Arm code ผู้เชี่ยวชาญด้าน Azeria Labs เตือน อนาคต ในแง่ของการรักษาความปลอดภัยเทคโนโลยีแมชชีนเลิร์นนิง ดูไม่แน่นอนเนื่องจากปัจจัย XNUMX ประการ ได้แก่ ความต้องการของอุตสาหกรรมที่ต้องการเคลื่อนย้ายอย่างรวดเร็วและทำลายสิ่งต่างๆ และขาดรายละเอียดทางเทคนิคภายในสำหรับผู้เชี่ยวชาญด้านความปลอดภัยที่จะร่วมงานด้วย

กล่าวคือ บางองค์กรกำลังเร่งสร้างโมเดลให้อยู่ในสถานการณ์จริงในลักษณะที่อาจทำให้ผู้คนตกอยู่ในความเสี่ยง และวิธีการฝึกฝนและปรับใช้โมเดลนั้นจะถูกเก็บเป็นความลับหรือติดตามได้ยาก ซึ่งทั้งหมดนี้ไม่ใช่สถานการณ์ที่ดีสำหรับนักวิจัยของ Infosec และผู้ใช้ปลายทางและผู้ดูแลระบบ

“การแข่งขันด้านอาวุธ AI ขององค์กรได้เริ่มขึ้นแล้ว” Markstedter ให้ความเห็น “แน่นอนว่า Microsoft เป็นผู้นำในเรื่องนี้”

เธอชี้ให้เห็นว่าในเดือนกุมภาพันธ์ Satya Nadella CEO ของ Microsoft อวดว่าบริษัทของเขากำลังจะก้าวไปอย่างรวดเร็วในด้านนี้ และเธอเสริมว่า Sam Schillace ผู้บริหาร Redmond ที่ยกมา ดังที่กล่าวไว้ว่ามันจะเป็น "ข้อผิดพลาดร้ายแรงอย่างยิ่งในช่วงเวลานี้ที่ต้องกังวลเกี่ยวกับสิ่งที่สามารถแก้ไขได้ในภายหลัง" ใครก็ตามที่ใช้โปรแกรมแก้ไข Windows จะรู้สิ่งนี้ดี

หวังว่า ML จะไม่เริ่มต้นอย่างที่สมาร์ทโฟนทำ Markstedter กล่าวว่ารุ่นแรก ๆ รันทุกอย่างด้วยการเข้าถึงรูท พวกเขาเต็มไปด้วยข้อบกพร่องที่สำคัญ มีวิธีแก้ไขน้อยมาก และไม่มีการแซนด์บ็อกซ์ข้อมูล

การเปลี่ยนแปลงเกิดขึ้นเนื่องจากเจ้าหน้าที่รักษาความปลอดภัยสามารถแยกชิ้นส่วนโทรศัพท์ออกจากกันทั้งทางร่างกายและทางโค้ด ดูวิธีการทำงาน ค้นหาจุดบกพร่อง และแสดงให้ผู้ผลิตทราบว่าพวกเขาจำเป็นต้องปรับปรุงเกมในจุดใด สิ่งนี้จะไม่สามารถทำได้ด้วยผลิตภัณฑ์ AI ในกล่องดำ เธอแนะนำ

เพื่อทำให้แม่แย่ลงไปอีก ด้วยข้อมูลการฝึกอบรมที่ยกมาจากเว็บขายส่ง กอง AI ขนาดใหญ่ในปัจจุบันคือ “เหมือนหุ่นจำลองที่เชื่อทุกสิ่งที่พวกเขาอ่านบนอินเทอร์เน็ต” เธอกล่าว นอกจากนี้ยังมีงานวิจัยที่แสดงว่าชุดข้อมูลการฝึกพิษอาจส่งผลอย่างมากต่อความแม่นยำและการทำงานของระบบ ML

“เราไม่รู้ว่าสถานการณ์นั้นจะเป็นอย่างไรในตอนนี้” เธอเตือน “ปัญหาที่ใหญ่ที่สุดไม่ใช่การมีอยู่ของความท้าทายเหล่านี้ ปัญหาของเราคือเราไม่มีบุคลากรที่มีทักษะเพียงพอในการจัดการกับพวกเขา” ®

จุด_img

ข่าวกรองล่าสุด

จุด_img