Tech

AI Weekly: โครงร่างสำหรับกฎระเบียบของรัฐบาลของ AI

การประชุมสุดยอดเทคโนโลยีการแปลง เริ่ม 13 ตุลาคมด้วย Low-Code/ ไม่มีรหัส: เปิดใช้งาน Enterprise Agility สมัครตอนนี้!

รัฐบาลเผชิญกับความท้าทายด้านนโยบายหลายประการ AI เทคโนโลยี ซึ่งหลายอย่างรุนแรงขึ้นจากข้อเท็จจริงที่ว่าพวกเขาขาดข้อมูลรายละเอียดที่เพียงพอ เอกสารไวท์เปเปอร์ที่ตีพิมพ์ในสัปดาห์นี้โดยเจสส์ วิตเทิลสโตน นักจริยธรรมด้าน AI และแจ็ค คลาร์ก อดีตผู้อำนวยการนโยบาย OpenAI ได้สรุปแนวทางแก้ไขที่เป็นไปได้ซึ่งเกี่ยวข้องกับการลงทุนในความสามารถของรัฐบาลในการตรวจสอบความสามารถของระบบ AI ตามที่รายงานฉบับนี้ชี้ให้เห็น AI ในฐานะอุตสาหกรรมมักสร้างข้อมูลและมาตรการต่างๆ เป็นประจำ และหากข้อมูลถูกสังเคราะห์ ข้อมูลเชิงลึกจะช่วยปรับปรุงความสามารถของรัฐบาลในการทำความเข้าใจเทคโนโลยีในขณะที่ช่วยสร้างเครื่องมือเพื่อแทรกแซง “รัฐบาลควรมีบทบาทสำคัญในการกำหนดการวัดผลและติดตามความคิดริเริ่มของตนเองในขณะที่จ้างช่วงอื่น ๆ ให้กับบุคคลที่สามเช่นผ่านการให้ทุนหรือการเป็นหุ้นส่วน กับสถาบันวิจัย” Whittlestone และ Clark เขียน “มีแนวโน้มว่ารูปแบบที่ประสบความสำเร็จของโครงการนี้จะเห็นแนวทางแบบผสมผสาน โดยมีการตัดสินใจหลักและทิศทางการวิจัยที่กำหนดโดยผู้ดำเนินการของรัฐบาล จากนั้นงานจะดำเนินการโดยการผสมผสานระหว่างรัฐบาลและบุคคลที่สาม”

วิตเทิลสโตนและคลาร์กแนะนำให้รัฐบาลลงทุนในโครงการริเริ่มเพื่อตรวจสอบแง่มุมต่างๆ ของการวิจัย การปรับใช้ และผลกระทบของ AI รวมถึงการวิเคราะห์ระบบที่ปรับใช้แล้วสำหรับอันตรายใดๆ ที่อาจเกิดขึ้น หน่วยงานสามารถพัฒนาวิธีที่ดีกว่าในการวัดผลกระทบของระบบที่ยังไม่มีมาตรการดังกล่าว และพวกเขาสามารถติดตามกิจกรรมและความคืบหน้าในการวิจัย AI โดยใช้การวิเคราะห์ การวัดประสิทธิภาพ และข้อมูลโอเพ่นซอร์สร่วมกัน ” การตั้งค่าโครงสร้างพื้นฐานนี้มักจะต้องมีกระบวนการซ้ำๆ โดยเริ่มจากโครงการนำร่องขนาดเล็ก” Whittlestone และ Clark เขียน “ ประเมินวุฒิภาวะทางเทคนิคของความสามารถ AI ที่เกี่ยวข้องกับโดเมนเฉพาะของผลประโยชน์นโยบาย” วิตเทิลสโตนและคลาร์กวาดภาพให้รัฐบาลประเมินภูมิทัศน์ของ AI และใช้สิ่งที่ค้นพบเพื่อเป็นทุนในการสร้างชุดข้อมูลเพื่อเติมเต็มช่องว่างการเป็นตัวแทน รัฐบาลสามารถทำงานเพื่อทำความเข้าใจความสามารถในการแข่งขันของประเทศในด้านการวิจัย AI และเป็นเจ้าภาพการแข่งขันเพื่อให้ง่ายต่อการวัดความก้าวหน้า นอกเหนือจากนี้ หน่วยงานสามารถให้ทุนสนับสนุนโครงการต่างๆ เพื่อปรับปรุงวิธีการประเมินในด้านที่ “มีความสำคัญในเชิงพาณิชย์” ที่เฉพาะเจาะจง นอกจากนี้ รัฐบาลสามารถติดตามการปรับใช้ระบบ AI สำหรับงานเฉพาะเพื่อติดตาม คาดการณ์ และเตรียมพร้อมสำหรับผลกระทบทางสังคมของระบบเหล่านี้ในท้ายที่สุด

“การตรวจสอบกรณีอันตรายที่เป็นรูปธรรมที่เกิดจากระบบ AI ในระดับชาติ [would] ทำให้ผู้กำหนดนโยบายได้รับข้อมูลล่าสุดเกี่ยวกับผลกระทบในปัจจุบันของ AI รวมถึงผลกระทบที่อาจเกิดขึ้นในอนาคตที่เกิดจากความก้าวหน้าด้านการวิจัย” Whittlestone และคลาร์กพูด “การตรวจสอบการนำเทคโนโลยี AI ไปใช้หรือใช้จ่ายในภาคส่วนต่างๆ [would] จะระบุภาคที่สำคัญที่สุดในการติดตามและกำกับดูแล ตลอดจนข้อมูลเชิงลึกทั่วไปเกี่ยวกับวิธีการใช้ประโยชน์จากเทคโนโลยี AI ในภาคอื่นๆ [And] เฝ้าติดตามการแบ่งปันข้อมูลสำคัญที่นำไปสู่ความก้าวหน้าของ AI ที่ผู้ดำเนินการต่างๆ ควบคุม (เช่น ความสามารถ ทรัพยากรในการคำนวณ และวิธีการในการผลิต และข้อมูลที่เกี่ยวข้อง) [would help to] เข้าใจดีขึ้นว่าผู้กำหนดนโยบายคนใดต้องการ เพื่อควบคุมและจุดแทรกแซง”

ความคืบหน้าช้า

รัฐบาลบางแห่งได้ดำเนินการตามขั้นตอนสู่การกำกับดูแลที่เข้มแข็งและการตรวจสอบระบบ AI แล้ว ตัวอย่างเช่น มาตรฐานที่สหภาพยุโรปเสนอสำหรับ AI จะอยู่ภายใต้อัลกอริธึม “ความเสี่ยงสูง” ในการสรรหาบุคลากร โครงสร้างพื้นฐานที่สำคัญ การให้คะแนนเครดิต การย้ายถิ่น และการบังคับใช้กฎหมายเพื่อการป้องกันที่เข้มงวด อัมสเตอร์ดัมและเฮลซิงกิได้เปิดตัว “ การลงทะเบียนอัลกอริทึม ซึ่งแสดงรายการชุดข้อมูลที่ใช้ ฝึกแบบจำลอง คำอธิบายวิธีการใช้อัลกอริทึม วิธีที่มนุษย์ใช้การคาดการณ์ และข้อมูลเสริมอื่นๆ และจีนกำลังร่างกฎเกณฑ์ที่กำหนดให้บริษัทต่างๆ ปฏิบัติตามหลักจริยธรรมและความยุติธรรมในการปรับใช้อัลกอริทึมการแนะนำในแอปและโซเชียลมีเดีย แต่ความพยายามอื่นๆ ล้มเหลว โดยเฉพาะอย่างยิ่งในสหรัฐอเมริกา แม้จะมีการห้ามระดับเมืองและระดับรัฐในการจดจำใบหน้าและอัลกอริธึมที่ใช้ในการว่าจ้างและการสรรหา กฎหมายของรัฐบาลกลางเช่น พระราชบัญญัติการขับรถด้วยตนเอง และ Algorithmic Accountability Act ซึ่งกำหนดให้บริษัทต่างๆ ต้องศึกษาและแก้ไขระบบ AI ที่มีข้อบกพร่อง ซึ่งส่งผลให้การตัดสินใจที่ไม่ถูกต้อง ไม่ยุติธรรม อคติ หรือการเลือกปฏิบัติที่ส่งผลกระทบต่อพลเมืองสหรัฐฯ ยังคงหยุดชะงัก

หากรัฐบาลเลือกที่จะไม่ยอมรับการกำกับดูแล AI วิตเทิลสโตนและคลาร์กคาดการณ์ว่าผลประโยชน์ของภาคเอกชนจะใช้ประโยชน์จากการขาดโครงสร้างพื้นฐานด้านการวัดผลเพื่อ ปรับใช้เทคโนโลยี AI ที่มี “ปัจจัยภายนอกเชิงลบ” และรัฐบาลจะขาดเครื่องมือที่มีให้ จัดการกับพวกเขา ความไม่สมดุลของข้อมูลระหว่างรัฐบาลและภาคเอกชนอาจขยายวงกว้างออกไป ทำให้เกิดการใช้งานที่เป็นอันตรายซึ่งจับผู้กำหนดนโยบายด้วยความประหลาดใจ

” ความสนใจอื่น ๆ จะเข้ามาเติมเต็มช่องว่างข้อมูลที่เปลี่ยนแปลงไป เป็นไปได้มากว่าภาคเอกชนจะให้ทุนแก่หน่วยงานต่างๆ เพื่อสร้างโครงการวัดผลและติดตามซึ่งสอดคล้องกับผลประโยชน์เชิงพาณิชย์ที่แคบมากกว่าผลประโยชน์ของพลเมืองในวงกว้าง” Whittlestone และ Clark กล่าว “[This would] นำไปสู่การออกกฎหมายที่เร่งด่วน ไม่แม่นยำ และไม่มีข้อมูล” สำหรับการรายงานข่าวของ AI ส่งข่าว เคล็ดลับในการ Kyle Wiggers — และอย่าลืมสมัครเป็นสมาชิก จดหมายข่าว AI รายสัปดาห์ และบุ๊กมาร์กช่อง AI ของเรา เครื่องจักร.

ขอบคุณที่อ่าน

Kyle Wiggers

เจ้าหน้าที่เขียน AI

  • VentureBeat
    ภารกิจของ VentureBeat คือการเป็นจัตุรัสกลางเมืองดิจิทัลสำหรับการตัดสินใจทางเทคนิค -ผู้จัดทำเพื่อให้ได้รับความรู้เกี่ยวกับเทคโนโลยีและการทำธุรกรรมเพื่อการเปลี่ยนแปลง ไซต์ของเราให้ข้อมูลที่จำเป็นเกี่ยวกับเทคโนโลยีข้อมูลและกลยุทธ์เพื่อเป็นแนวทางในการเป็นผู้นำองค์กรของคุณ เราขอเชิญคุณเข้าร่วมเป็นสมาชิกชุมชนของเราเพื่อเข้าถึง:

  • ข้อมูลล่าสุดเกี่ยวกับเรื่องที่คุณสนใจ
  • จดหมายข่าวของเรา
  • ปิดกั้นเนื้อหาผู้นำทางความคิดและส่วนลดในการเข้าถึงกิจกรรมล้ำค่าของเรา เช่น แปลงร่าง 2021 : เรียนรู้เพิ่มเติม
  • คุณสมบัติเครือข่ายและอื่น ๆ
    • ตรังủ
    • ธุรกิจ
    • อาหาร
    • ไลฟ์สไตล์
    • เทค
    • กรอบการตลาดดิจิทัล (Digital marketi ง)

    Back to top button