Conquering AI risks แกะกล่องและบรรเทาความกังวลที่คุกคามความก้าวหน้าของ AI

Conquering AI risks แกะกล่องและบรรเทาความกังวลที่คุกคามความก้าวหน้าของ AI

เว็บไซต์

AI กำลังเปลี่ยนแปลงองค์กรในอุตสาหกรรมต่างๆ อยู่แล้ว แต่ความเสี่ยงที่เกิดขึ้นใหม่กำลังก่อให้เกิดความไม่สบายใจอย่างแท้จริง และทำให้การนำ AI ไปใช้ช้าลง โชคดีที่ความกังวลของผู้นำสามารถจัดการและบรรเทาลงได้

การออกแบบเว็บไซต์

อายุแพร่หลาย AI อยู่ที่นี่ 1ตั้งแต่ปี 2017 รายงานสถานะ AIประจำปีของ Deloitte ในรายงานEnterpriseได้วัดความก้าวหน้าอย่างรวดเร็วของเทคโนโลยี AI ทั่วโลกและในอุตสาหกรรมต่างๆ ในฉบับล่าสุดที่เผยแพร่ในเดือนกรกฎาคม 2020 ผู้ตอบแบบสำรวจส่วนใหญ่รายงานว่ามีการลงทุนด้าน AI เพิ่มขึ้นอย่างมีนัยสำคัญ โดยมากกว่าสามในสี่เชื่อว่า AI จะเปลี่ยนแปลงองค์กรของตนอย่างมากในอีกสามปีข้างหน้า นอกจากนี้ การลงทุนด้าน AI ยังนำไปสู่ผลประโยชน์ขององค์กรที่วัดผลได้เพิ่มมากขึ้น ไม่ว่าจะเป็นประสิทธิภาพของกระบวนการที่ดีขึ้น การตัดสินใจที่ดีขึ้น ประสิทธิภาพการทำงานของพนักงานที่เพิ่มขึ้น และผลิตภัณฑ์และบริการที่เพิ่มขึ้น ประโยชน์ที่เป็นไปได้เหล่านี้น่าจะช่วยผลักดันการเติบโตของมูลค่าการรับรู้ของ AI ที่มีต่อองค์กร—เกือบสามในสี่ของผู้ตอบแบบสอบถามรายงานว่า AI มีความสำคัญเชิงกลยุทธ์ โดยเพิ่มขึ้น 10 เปอร์เซ็นต์จากการสำรวจครั้งก่อน
อย่างไรก็ตาม ความไม่สบายใจที่เพิ่มขึ้นคุกคามแนวโน้มที่เพิ่มขึ้นนี้: 56 เปอร์เซ็นต์ขององค์กรที่ทำการสำรวจกล่าวว่าพวกเขาวางแผนที่จะชะลอหรือชะลอการนำ AI ไปใช้เนื่องจากความกังวลเกี่ยวกับความเสี่ยงที่เกิดขึ้นใหม่ ซึ่งเป็นระดับความเข้าใจที่น่าทึ่งเมื่อพิจารณาถึงประโยชน์ที่ AI ยอมรับและความสำคัญเชิงกลยุทธ์ เพื่อทำความเข้าใจปัญหาพื้นฐานที่ถือหุ้นเราวิเคราะห์กังวลผู้ตอบแบบสอบถามขึ้นอยู่กับสามประเภทหลัก: ความเชื่อมั่นในกระบวนการตัดสินใจไอจริยธรรมของ AI และการใช้ข้อมูลและความไม่แน่นอนในตลาด
เราตั้งเป้าหมายที่จะสำรวจข้อกังวลเหล่านี้โดยละเอียดและให้ข้อมูลเชิงลึกเกี่ยวกับสิ่งที่บริษัทสามารถทำได้เพื่อจัดการความเสี่ยงเหล่านี้อย่างมีประสิทธิภาพ การทำเช่นนี้ช่วยให้องค์กรสามารถสร้างความมั่นใจภายในที่จำเป็นต่อการลงทุนและสร้างสรรค์สิ่งใหม่ ๆ ต่อไป และเพิ่มความเชื่อมั่นของผู้มีส่วนได้ส่วนเสียภายนอกว่ากลยุทธ์ AI สามารถดำเนินการได้ตามที่ตั้งใจไว้
ร้อยละห้าสิบหกขององค์กรที่ทำการสำรวจตั้งใจที่จะชะลอหรือชะลอการนำ AI ไปใช้เนื่องจากความกังวลเกี่ยวกับความเสี่ยงที่เกิดขึ้นใหม่
ทำความเข้าใจภัยคุกคามต่อความก้าวหน้าของ AI
การอภิปรายเกี่ยวกับความเสี่ยงที่เกี่ยวข้องกับ AI เติบโตขึ้นในช่วงไม่กี่ปีที่ผ่านมาสำหรับทั้งผู้นำธุรกิจและประชาชนทั่วไป การอภิปรายว่า AI จะฆ่าหรือสร้างงานหรือไม่ ในขณะเดียวกัน รายงานเกี่ยวกับความลำเอียงหรือความล้มเหลวของ AI มักแตกเป็นพาดหัวข่าว 4ในเดือนกรกฎาคม 2020 ฟันเฟืองสาธารณะและการวิพากษ์วิจารณ์อย่างกว้างขวางได้ปิดตัว Generify สตาร์ทอัพที่ขับเคลื่อนด้วย AI หลังจากผ่านไปเพียงห้าวัน บริษัทอ้างว่า AI สามารถระบุเพศของบุคคลได้โดยการวิเคราะห์ชื่อ ชื่อผู้ใช้ และที่อยู่อีเมล มันนำเสนอความสามารถนี้ให้กับธุรกิจเพื่อเพิ่มประสิทธิภาพให้กับข้อมูลลูกค้า มีรายงานว่าระบบมีความเข้าใจผิดเกี่ยวกับเพศที่หลากหลายและตัดสินใจโดยอิงจากสมมติฐานที่ผิดพลาด ตัวอย่างเช่น บันทึกที่มี “นักวิทยาศาสตร์” ส่งคืนความน่าจะเป็นเพียง 4.3% ที่บุคคลนั้นเป็นเพศหญิง แม้ว่าจะมีการเป็นตัวแทนของสตรีในสาขาวิทยาศาสตร์ที่สูงขึ้นมาก 5 “ศาสตราจารย์” ส่งผลให้ผู้ชายมีโอกาสเป็น 98.4% เมื่อผู้ชายดำรงตำแหน่งเพียง 74% ของตำแหน่งที่ดำรงตำแหน่งในสหรัฐรัฐ (เปอร์เซ็นต์ที่สะท้อนความไม่เท่าเทียมกัน)
ตัวอย่างเช่นนี้—และปฏิกิริยาตอบโต้สาธารณะที่มักจะมาพร้อมกับการเปิดเผย—กำลังทำให้ผู้นำหลายคนไม่เข้าใจถึงวิธีที่พวกเขาเปิดตัว AI ภายในองค์กรและสำหรับลูกค้า พนักงาน และหุ้นส่วนในระบบนิเวศในวงกว้าง เพื่อให้เข้าใจได้อย่างแม่นยำมากขึ้นว่าการจับกุมที่ใหญ่ที่สุดขององค์กรเกิดขึ้นที่ใด เราขอให้ผู้ตอบแบบสำรวจให้คะแนนรายการข้อกังวลในระดับจาก “น้อยที่สุด” ถึง “สุดโต่ง” เราจัดกลุ่มความเสี่ยงที่ระบุไว้เป็นสามประเภท: ความเชื่อมั่น , จริยธรรมและความไม่แน่นอนในตลาด
ความมั่นใจหมายถึงโดยทั่วไปบริษัทเชื่อว่าเครื่องมือ AI นั้นเชื่อถือได้หรือไม่ ซึ่งรวมถึงความไว้วางใจในข้อมูลเชิงลึกและการตัดสินใจของ AI ความไว้วางใจในความปลอดภัยของระบบ และสามารถเข้าใจ ให้เหตุผล หรืออธิบายกระบวนการตัดสินใจของ AI จริยธรรมหมายถึงการตั้งคำถามว่าการใช้ AI นั้นดีและถูกต้องต่อสังคมหรือไม่ โดยไม่คำนึงถึงประโยชน์ของ AI ต่อธุรกิจ รวมถึงประเด็นความเป็นส่วนตัวของข้อมูล ความเป็นธรรม ความลำเอียง และโอกาสในการตกงาน ความไม่แน่นอนของตลาดเป็นปัจจัยที่อยู่นอกเหนือการควบคุมโดยตรงของบริษัท เช่น แนวกฎระเบียบที่เปลี่ยนแปลงไปและความคิดเห็นของประชาชนหรือพนักงาน ปัจจัยเหล่านี้ไม่จำเป็นต้องเกี่ยวข้องกับคุณภาพของ AI แต่ส่งผลต่อวิธีที่องค์กรสามารถนำไปใช้หรือนำไปใช้ได้
สะท้อนถึงเปอร์เซ็นต์ของผู้ตอบแบบสอบถามที่ให้คะแนนข้อกังวลสองข้อหรือมากกว่าในแต่ละหมวดหมู่ว่า “สำคัญ” หรือ “สุดขีด”
ความมั่นใจ
ตามหมวดหมู่ความมั่นใจในระบบ AI มีความสำคัญมากที่สุด โดย 73% ของผู้นำธุรกิจทั้งหมดที่ทำการสำรวจระบุว่าข้อกังวลสองข้อหรือมากกว่านั้นเป็นเรื่องใหญ่หรือสุดโต่ง เมื่อพิจารณาเฉพาะเจาะจงที่ผู้ตอบแบบสำรวจที่วางแผนจะชะลอการนำ AI ไปใช้ 85% อ้างว่ามีความเสี่ยงที่สำคัญหรือเกี่ยวข้องกับความมั่นใจที่รุนแรงสองอย่างขึ้นไป
เป็นที่เข้าใจกันว่าความกังวลเรื่องความมั่นใจอาจนำไปสู่ความหวาดหวั่น พวกเขามีความเกี่ยวข้องมากที่สุดกับคุณภาพของผลิตภัณฑ์และบริการที่บริษัทจัดหาให้ และสามารถมีส่วนสำคัญต่อชื่อเสียงขององค์กรและการรับรู้ของสาธารณชน นอกจากนี้ยังสามารถส่งผลกระทบต่อการส่งมอบที่บริษัทนำออกไปสู่โลกเพื่อการบริโภค ตัวอย่างเช่น ผู้ให้บริการทางการแพทย์สามารถใช้ศักยภาพมหาศาลของ AI เพื่อระบุชนิดของมะเร็งและกำหนดวิธีการรักษาที่เหมาะสม 7เป็นไปได้ว่ากลไกการตัดสินใจของ AI สามารถแนะนำการรักษาที่ไม่ปลอดภัยหรือระบุประเภทของมะเร็งผิดพลาดได้ ซึ่งอาจส่งผลร้ายแรงต่อผู้ป่วย ทำให้บริษัทมีความเสี่ยง และส่งผลให้สูญเสียเงินลงทุนด้าน AI การริเริ่มที่ไม่ประสบความสำเร็จอาจนำไปสู่ความเสียหายที่มีราคาแพงกว่าการลงทุนเพียงอย่างเดียว ซึ่งสามารถลดความเชื่อมั่นของพนักงานขององค์กรในการสร้างสรรค์นวัตกรรมต่อไปได้ และที่แย่กว่านั้นคือลดความไว้วางใจของผู้ป่วยหรือลูกค้า

เว็บแอพพลิเคชั่น

ในกรณีข้างต้น บริษัทรายงานว่าได้สร้างระบบป้องกันเพื่อความปลอดภัยของผู้ป่วย ลดโอกาสที่มันจะทำลายความไว้วางใจของผู้ป่วย นอกจากนี้ ข้อผิดพลาดยังใช้เพื่อระบุความล้มเหลวของระบบและปรับปรุงโซลูชันอัลกอริทึมในอนาคต 8หากบรรเทาได้ดีตั้งแต่ต้น ก็สามารถเปลี่ยนเป็นองค์ประกอบเชิงบวกของเส้นทางสู่การพัฒนา AI ได้ อันที่จริง มีหลักฐานที่บ่งชี้ว่าเมื่อบริษัทเติบโตในความสามารถของ AI ระดับความกังวลของพวกเขามักจะเปลี่ยนไปเมื่อพวกเขาพัฒนากระบวนการ พฤติกรรม หรือทักษะเพื่อลดความเสี่ยงและขับเคลื่อนผลลัพธ์เชิงบวกมากขึ้น (ดูแถบด้านข้าง “วุฒิภาวะของ AI และวิธี องค์กรเรียนรู้ที่จะจัดการความเสี่ยงที่รับรู้”)
วุฒิภาวะของ AI และวิธีที่องค์กรเรียนรู้ในการจัดการความเสี่ยงที่รับรู้
ทั่วกระดานในขณะที่ บริษัท ที่สำรวจครบกำหนดในความสามารถของพวกเขา AI ระดับของความกังวลในความเชื่อมั่น , จริยธรรมและความไม่แน่นอนในตลาดเป็นไปตามวิถีค่อนข้างระฆังรูป
ทั้งองค์กรที่มีวุฒิภาวะต่ำและสูงที่ได้รับการสำรวจรายงานระดับความกังวลที่ต่ำกว่า ในขณะที่องค์กรที่มีวุฒิภาวะปานกลางรายงานระดับความกังวลสูงสุดในทั้งสามประเภท อาจเป็นเพราะองค์กรที่มีวุฒิภาวะต่ำยังไม่ได้รับความเสี่ยงอย่างเต็มที่ โดยหลายโครงการยังคงอยู่ในโหมดการพิสูจน์แนวคิดหรือโหมดนำร่อง จากนั้น เมื่อองค์กรบรรลุวุฒิภาวะในระดับปานกลาง ความท้าทายอาจชัดเจนขึ้น แต่อาจยังไม่ได้พัฒนาความสามารถที่จำเป็นในการแก้ไขปัญหาเหล่านี้ ในที่สุด เมื่อองค์กรไปถึงระดับขั้นสูง พวกเขาสามารถมีความสามารถมากขึ้นที่จำเป็นในการลดความเสี่ยงเหล่านั้น และระดับความกังวลของพวกเขาก็มักจะลดลงอีกครั้ง
ความท้าทายที่สำคัญอีกประการหนึ่งที่เกี่ยวข้องกับความเชื่อมั่นของ AI คือระบบ AI ในปัจจุบันมักจะมาพร้อมกับการแลกเปลี่ยนระหว่างความสามารถในการตีความและอำนาจ โมเดลแมชชีนเลิร์นนิงบางรุ่นมีความซับซ้อนมากจนแม้แต่นักวิทยาศาสตร์ด้านข้อมูลที่ได้รับการฝึกอบรมมาอย่างดีก็ยังมีปัญหาในการทำความเข้าใจอย่างแม่นยำว่าอัลกอริทึมทำการตัดสินใจอย่างไร ในขณะที่การใช้โครงข่ายประสาทเทียมเพิ่มมากขึ้น ปัญหานี้ยิ่งทวีความรุนแรงมากขึ้น ส่งผลให้องค์กรสามารถตัดสินใจได้อย่างมีเหตุผล ลดข้อผิดพลาด และทำให้หน่วยงานกำกับดูแลพึงพอใจ
เพื่อช่วยแก้ปัญหานี้AI . ที่อธิบายได้เป็นสาขาวิทยาการคอมพิวเตอร์ที่กำลังพัฒนาซึ่งพยายามสร้างแบบจำลอง AI ที่สามารถอธิบายตนเองได้ดีขึ้น ปัจจุบัน AI ที่อธิบายได้สามารถให้ข้อมูลทั่วไปเกี่ยวกับวิธีการตัดสินใจของโปรแกรม AI โดยการเปิดเผยจุดแข็งและจุดอ่อนของโปรแกรมนั้นและเกณฑ์เฉพาะที่โปรแกรมใช้ในการตัดสินใจ และให้คำแนะนำเกี่ยวกับระดับความไว้วางใจที่เหมาะสมในการตัดสินใจประเภทต่างๆ คำแนะนำล่าสุดจากกระทรวงพาณิชย์สหรัฐฯ ได้เสนอแนะหลักการสี่ประการในการประเมินความสามารถในการอธิบายของ AI: ระบบ AI จำเป็นต้องจัดเตรียมหลักฐานประกอบหรือเหตุผลสำหรับผลลัพธ์ทั้งหมด ระบบต้องให้คำอธิบายที่มีความหมายและเข้าใจได้สำหรับผู้ใช้แต่ละราย คำอธิบายระบบต้องสะท้อนถึงกระบวนการของระบบในการสร้างเอาต์พุตอย่างถูกต้อง9ในทางกลับกัน ความสามารถในการอธิบาย AI ควรมีอิทธิพลต่อความสามารถขององค์กรในการใช้ AI อย่างมีจริยธรรม
จริยธรรม
ร้อยละห้าสิบเจ็ดของผู้ตอบแบบสอบถามรายงานว่าข้อกังวลด้านจริยธรรมสองข้อหรือมากกว่านั้นเป็นเรื่องใหญ่หรือสุดโต่ง เมื่อพิจารณาอย่างเจาะจงที่ผู้ตอบแบบสอบถามที่วางแผนจะชะลอการนำ AI ไปใช้ 73% อ้างถึงข้อกังวลหลักหรืออย่างสุดโต่งเกี่ยวกับด้านจริยธรรมอย่างน้อยสองด้าน
ความท้าทายที่ไม่เหมือนใครเกี่ยวกับจริยธรรมของ AI โดยเฉพาะอย่างยิ่งในเรื่องความเป็นธรรมและอคติคือข้อมูลที่ AI สร้างขึ้นนั้นอาจไม่สมบูรณ์ มีอคติ หรือไม่เท่ากัน ด้วยเหตุนี้ จึงเป็นเรื่องยากที่จะขจัดความเอนเอียงที่ไม่ได้ตั้งใจทั้งหมดภายในชุดข้อมูล แม้ว่าบริษัทจะมีเจตนาดีก็ตาม
มนุษย์ที่สร้าง AI วิเคราะห์ผลลัพธ์ และนำโซลูชันไปใช้ ยังสามารถตกเป็นเหยื่อของอคติที่ไม่ได้ตั้งใจ ซึ่งต้องมีการดำเนินการโดยเจตนาเพื่อบรรเทาปัญหาเหล่านี้ในทุกที่ที่ทำได้ ในตัวอย่างการดูแลสุขภาพเมื่อเร็วๆ นี้ อัลกอริธึมการทำนายความเสี่ยงโดยใช้การใช้จ่ายด้านการดูแลสุขภาพเป็นเสมือนตัวแทนในการดูแล ในที่สุดก็แสดงให้เห็นถึงอคติทางเชื้อชาติในผลลัพธ์ ทำให้ผู้ป่วยผิวขาวมีโอกาสได้รับผลประโยชน์จากโปรแกรมการดูแลเพิ่มเติมมากกว่าผู้ป่วยผิวดำ 10แม้ว่าอัลกอริธึมจะสะท้อนการใช้จ่ายด้านสุขภาพของทั้งสองกลุ่มได้อย่างแม่นยำ แต่ก็ไม่ได้คำนึงถึงข้อเสียเปรียบทางเศรษฐกิจที่คนผิวดำมักเผชิญซึ่งมักส่งผลกระทบต่อการใช้จ่ายด้านการดูแลสุขภาพ เช่น ค่าเข้าชมห้องฉุกเฉินที่แพงกว่า ค่าประกันที่ลดลง เป็นต้น11ซึ่งอาจส่งผลให้ระดับการใช้จ่ายใกล้เคียงกันสำหรับระดับความต้องการที่แตกต่างกันอย่างมาก—ความเป็นจริงที่การวิเคราะห์ข้อมูลพร็อกซีของระบบพลาดไป ในตัวอย่างข้างต้น ผู้ป่วยผิวดำได้รับคะแนนความเสี่ยงที่ไม่ถูกต้อง และถูกแยกออกจากโปรแกรมการดูแลพิเศษในอัตราที่มากกว่า
[NPC4]เป็นสิ่งสำคัญที่ผู้ออกแบบโปรแกรมจะต้องตรวจสอบการตัดสินใจของพร็อกซีและการสร้างตัวแปรอย่างละเอียดถี่ถ้วน โดยมีการป้องกันสำหรับการประเมินว่าการใช้งานนั้นสะท้อนถึงความเป็นจริงของผู้มีส่วนได้ส่วนเสียของคุณหรือไม่ นอกจากนี้ ตัวอย่างดังกล่าวยังเน้นย้ำถึงความจำเป็นในการนำเสนอที่หลากหลาย ตลอดจนทักษะและการฝึกอบรมระหว่างวิศวกรและผู้มีอำนาจตัดสินใจเกี่ยวกับผลลัพธ์ที่ไม่คาดคิดที่อาจเกิดขึ้นจากการสร้างอัลกอริทึม
ความไม่แน่นอนของตลาด
สุดท้าย 55% ของผู้ตอบแบบสอบถามรายงานว่าความไม่แน่นอนของตลาดสองรายการขึ้นไปเป็นข้อกังวลหลักหรือขั้นรุนแรง แม้จะอยู่ในอันดับที่สามของหมวดหมู่ แต่ประเด็นที่น่ากังวลนี้ดูเหมือนจะมีความเชื่อมโยงกับพฤติกรรมการลงทุนเกินขนาด: ในบรรดาผู้ตอบแบบสอบถามที่คาดว่าจะชะลอการนำ AI มาใช้ 71% รายงานว่ามีความไม่แน่นอนของตลาดที่สำคัญอย่างน้อยสองอย่าง
ข้อกังวลในหมวดหมู่นี้มีหลากหลายตั้งแต่ความคิดเห็นของประชาชนไปจนถึงแนวกฎระเบียบที่คลุมเครือ ร้อยละ 57 ของผู้ตอบแบบสำรวจกล่าวถึงข้อกังวลหลักหรือข้อกังวลสุดโต่งเกี่ยวกับกฎและข้อบังคับใหม่และการเปลี่ยนแปลงของเทคโนโลยี AI เช่น ความเป็นส่วนตัวของข้อมูล การจดจำใบหน้า และความโปร่งใสในการตัดสินใจ 12ห้าสิบสองเปอร์เซ็นต์กล่าวถึงข้อกังวลหลักหรืออย่างสุดโต่งเกี่ยวกับฟันเฟืองของลูกค้า หากพบข้อบกพร่องหรือการละเมิดความเป็นส่วนตัวในแอปพลิเคชัน AI กว่าครึ่งยังกังวลเกี่ยวกับการรับรู้เชิงลบของพนักงานเมื่อใช้ระบบ AI
วิธีนำทางความเสี่ยงที่มีอยู่ในการนำ AI มาใช้
การเปลี่ยนแปลงในระดับมหาศาลและศักยภาพอันมหาศาลสำหรับความเสี่ยงที่ AI นำเสนออาจดูน่ากลัว—เพียง 4 ใน 10 ของผู้ตอบแบบสำรวจของเราอ้างว่าเตรียมพร้อมอย่างเต็มที่ 13จากการพัฒนาอย่างรวดเร็วของเทคโนโลยี AI ระดับความไม่แน่นอนตามธรรมชาติจะคงอยู่ชั่วระยะเวลาหนึ่ง อย่างไรก็ตาม องค์กรสามารถพิจารณากรอบการทำงานในปัจจุบัน และบทเรียนที่ได้จากการหยุดชะงักของเทคโนโลยีครั้งก่อน เพื่อช่วยในการนำทางความไม่แน่นอนในปัจจุบัน
จัดการข้อกังวลด้านความมั่นใจและจริยธรรมด้วย AI . ที่น่าเชื่อถือ
จากข้อกังวลสามประเภทที่วิเคราะห์ไปก่อนหน้านี้ สองข้อ— ความเชื่อมั่นและจริยธรรม—อยู่ในตำแหน่งการควบคุมขององค์กรเป็นหลัก ทั้งคู่ชี้ไปที่คำถามที่ว่าการใช้ AI ขององค์กรนั้นน่าเชื่อถือหรือไม่ เพื่อเพิ่มความมั่นใจใน AI องค์กรควรตรวจสอบให้แน่ใจว่าเครื่องมือและโซลูชันของตนมีความโปร่งใส เชื่อถือได้ และปลอดภัย และมีระบบความรับผิดชอบ การลดความกังวลเกี่ยวกับการใช้อย่างมีจริยธรรมมักจะต้องมีการประเมินว่าเครื่องมือและวิธีแก้ปัญหาได้รับการออกแบบมาเพื่อความเป็นธรรมหรือไม่—ทั้งโดยเจตนาและตามผลของมัน—และการใช้ข้อมูลนั้นเป็นไปตามมาตรฐานความเป็นส่วนตัวที่ชัดเจน เพื่อช่วยให้องค์กรกำหนดกรอบความเสี่ยงด้าน AI ผู้นำควรพัฒนาระบบป้องกันซึ่งรวมถึงการจัดการกับมิติข้อมูลสำคัญ 6 ประการที่เน้นด้านล่างใน
ความกังวลเรื่องความมั่นใจและจริยธรรมนั้นมาจากคำถามที่ว่าการใช้ AI ขององค์กรนั้นน่าเชื่อถือหรือไม่ ความสามารถขององค์กรในการนำกรอบนี้ไปใช้ส่วนใหญ่ขึ้นอยู่กับการจัดการข้อมูลที่รับผิดชอบ มาตรฐานการกำกับดูแลที่เข้มงวด และการทำให้มั่นใจว่ามีมุมมองที่หลากหลายอยู่ในห้องเพื่อระบุและพูดต่อต้านสมมติฐานที่เป็นอันตราย
คำแนะนำ: เน้นการจัดการข้อมูลและการกำกับดูแล ความสามารถขององค์กรในการทำงานอย่างมีทักษะกับข้อมูลมีความสำคัญต่อคุณภาพและความสามารถในการอธิบายของ AI ซึ่งช่วยเพิ่มความมั่นใจใน AI และการเตรียมความพร้อมของผู้นำในการจัดการผลกระทบทางจริยธรรม แม้กระทั่งทุกวันนี้ 40% ขององค์กรที่ทำการสำรวจยังคงรายงานระดับความซับซ้อน “ต่ำ” หรือ “ปานกลาง” ในแนวปฏิบัติด้านข้อมูลต่างๆ และเกือบหนึ่งในสามของผู้บริหารระบุถึงความท้าทายที่เกี่ยวข้องกับข้อมูลในสามอันดับแรกที่กังวลว่าขัดขวางการริเริ่ม AI ของบริษัท 14เมื่อพูดถึงการกำกับดูแล มีเพียงหนึ่งในห้าบริษัทที่สำรวจตรวจสอบ จัดการ และปรับปรุงคุณภาพข้อมูลเป็นประจำ ซึ่งเป็นส่วนหนึ่งของความพยายามในการกำกับดูแลข้อมูลอย่างเป็นทางการ ในขณะที่มีเพียง 12% ขององค์กรเท่านั้นที่เชื่อว่าข้อมูลของตนเป็นปัจจุบัน และมีเพียง 9% เชื่อว่าข้อมูลมีความถูกต้อง
[NPC5]หากไม่มีกระบวนการจัดการข้อมูลและธรรมาภิบาลที่มีทักษะ องค์กรอาจต้องดิ้นรนเพื่อลดความเสี่ยง ด้วยการมุ่งเน้นไปที่องค์ประกอบพื้นฐานทั้งสองนี้ บริษัทต่างๆ สามารถวางตัวเองให้อยู่ในตำแหน่งที่จะนำ AI ที่น่าเชื่อถือทั้งหกด้านไปใช้งานได้สำเร็จ และจัดการกับข้อกังวลด้านความมั่นใจและจริยธรรมที่อาจคุกคามการนำไปใช้