จริยธรรม AI: ความจำเป็นทางธุรกิจสำหรับบอร์ดและ C-suites

จริยธรรม AI: ความจำเป็นทางธุรกิจสำหรับบอร์ดและ C-suites

เว็บไซต์

ปัญญาประดิษฐ์ (AI) จะช่วยเราหรือขัดขวางเราหรือไม่? AI เป็นเครื่องมือในการแก้ปัญหาให้คำมั่นสัญญาที่ดี แต่การโจมตีทางไซเบอร์ การบิดเบือนทางสังคม แรงจูงใจทางการเงินที่แข่งขันกัน และอื่นๆ เตือนถึงด้านมืดของ AI สำหรับองค์กรที่คาดหวังให้ AI เปลี่ยนโฉมบริษัท ความเสี่ยงด้านจริยธรรมอาจเป็นปัญหาหลัก

การออกแบบเว็บไซต์

จริยธรรม AI คืออะไร?
AI เป็นคำกว้างๆ ที่ครอบคลุมเทคโนโลยีที่สามารถเลียนแบบพฤติกรรมของมนุษย์ที่ชาญฉลาด 1สี่หมวดหมู่หลักของ AI มีการใช้กันอย่างแพร่หลายมากขึ้นในปัจจุบัน:
การเรียนรู้ของเครื่อง : ความสามารถของแบบจำลองทางสถิติเพื่อพัฒนาความสามารถและปรับปรุงประสิทธิภาพเมื่อเวลาผ่านไปโดยไม่ต้องปฏิบัติตามคำแนะนำที่ตั้งโปรแกรมไว้อย่างชัดเจน
การเรียนรู้เชิงลึก : รูปแบบการเรียนรู้ของเครื่องที่ซับซ้อนที่ใช้สำหรับการรู้จำภาพและคำพูด และเกี่ยวข้องกับโครงข่ายประสาทเทียมที่มีตัวแปรนามธรรมหลายชั้น
การประมวลผลภาษาธรรมชาติ (NLP) : เทคโนโลยีที่ขับเคลื่อนอินเทอร์เฟซด้วยเสียงสำหรับผู้ช่วยเสมือนและแชทบอท รวมถึงการสืบค้นชุดข้อมูล โดยการแยกหรือสร้างความหมายและความตั้งใจจากข้อความในรูปแบบที่สามารถอ่านได้ เป็นกลางตามรูปแบบ และถูกต้องตามหลักไวยากรณ์
คอมพิวเตอร์วิทัศน์ : เทคโนโลยีที่แยกความหมายและเจตนาออกจากองค์ประกอบภาพ ไม่ว่าจะเป็นตัวละคร (ในกรณีของการแปลงเอกสารเป็นดิจิทัล) หรือการจัดหมวดหมู่เนื้อหาในภาพ เช่น ใบหน้า วัตถุ ฉาก และกิจกรรมต่างๆ
จริยธรรมคือ “ระเบียบวินัยที่เกี่ยวข้องกับความดีและความชั่ว หน้าที่และภาระผูกพันทางศีลธรรม” รวมทั้ง “หลักความประพฤติที่ปกครองบุคคลหรือกลุ่มบุคคล” ในการค้าขาย ความคิดที่มีจริยธรรมสนับสนุนการตัดสินใจตามค่านิยม เป้าหมายคือไม่เพียงแต่ทำสิ่งที่ดีสำหรับธุรกิจเท่านั้น แต่ยังทำสิ่งที่ดีสำหรับพนักงานในองค์กร ลูกค้า ลูกค้า และชุมชนที่ดำเนินการอยู่ด้วย
เมื่อนำคำจำกัดความทั้งสองนี้มารวมกันแล้ว “จริยธรรมของ AI” หมายถึงโครงสร้างองค์กรที่แสดงให้เห็นความถูกต้องและไม่ถูกต้อง เช่น ค่านิยมองค์กร นโยบาย จรรยาบรรณ และหลักแนวทางที่นำไปใช้กับเทคโนโลยี AI โครงสร้างเหล่านี้กำหนดเป้าหมายและแนวทางสำหรับ AI ตลอดวงจรชีวิตผลิตภัณฑ์ ตั้งแต่การวิจัยและการออกแบบ การสร้างและฝึกอบรม ไปจนถึงการเปลี่ยนแปลงและดำเนินการ
ข้อควรพิจารณาในการดำเนินจริยธรรม AI
ตามแนวคิดแล้ว จริยธรรม AI ใช้กับทั้งเป้าหมายของโซลูชัน AI และแต่ละส่วนของโซลูชัน AI สามารถใช้ AI เพื่อให้ได้ผลลัพธ์ทางธุรกิจที่ผิดจรรยาบรรณ แม้ว่าส่วนต่างๆ เช่น แมชชีนเลิร์นนิง การเรียนรู้เชิงลึก NLP และ/หรือคอมพิวเตอร์วิทัศน์ ล้วนได้รับการออกแบบมาให้ทำงานอย่างมีจริยธรรม
ตัวอย่างเช่น ระบบการสมัครสินเชื่อจำนองอัตโนมัติอาจรวมถึงคอมพิวเตอร์วิทัศน์และเครื่องมือที่ออกแบบมาเพื่ออ่านใบสมัครสินเชื่อที่เขียนด้วยลายมือ วิเคราะห์ข้อมูลที่ผู้สมัครให้มา และทำการตัดสินใจรับประกันภัยตามพารามิเตอร์ที่ตั้งโปรแกรมไว้ในโซลูชัน เทคโนโลยีเหล่านี้ไม่ได้ประมวลผลข้อมูลดังกล่าวผ่านเลนส์ที่มีจริยธรรม แต่เพียงประมวลผลข้อมูลเท่านั้น แต่ถ้าบริษัทจำนองตั้งโปรแกรมระบบโดยไม่ได้ตั้งใจโดยมีเป้าหมายหรือพารามิเตอร์ที่เลือกปฏิบัติอย่างไม่เป็นธรรมตามเชื้อชาติ เพศ หรือข้อมูลทางภูมิศาสตร์บางอย่าง ระบบก็สามารถนำมาใช้เพื่ออนุมัติหรือปฏิเสธสินเชื่อที่เลือกปฏิบัติได้
ในทางตรงกันข้าม โซลูชัน AI ที่มีจุดประสงค์ทางจริยธรรมอาจรวมถึงกระบวนการที่ขาดความสมบูรณ์หรือความถูกต้องซึ่งนำไปสู่จุดจบทางจริยธรรมนี้ ตัวอย่างเช่น บริษัทอาจปรับใช้ระบบ AI ที่มีความสามารถในการเรียนรู้ของเครื่องเพื่อสนับสนุนเป้าหมายทางจริยธรรมของกระบวนการสรรหาบุคลากรที่ไม่เลือกปฏิบัติ บริษัทเริ่มต้นด้วยการใช้ความสามารถของ AI เพื่อระบุเกณฑ์ประสิทธิภาพโดยพิจารณาจากผลงานที่ดีที่สุดในอดีตขององค์กร ตัวอย่างของผู้ปฏิบัติงานในอดีตดังกล่าวอาจรวมถึงอคติตามลักษณะการจ้างงานในอดีต (รวมถึงเกณฑ์การเลือกปฏิบัติ เช่น เพศ เชื้อชาติหรือชาติพันธุ์) มากกว่าแค่ผลการปฏิบัติงาน
กล่าวอีกนัยหนึ่ง เครื่องเรียนรู้จากข้อมูลที่ประมวลผล และหากตัวอย่างข้อมูลไม่ได้เป็นตัวแทนหรือถูกต้อง บทเรียนที่เรียนรู้จากข้อมูลนั้นจะไม่ถูกต้องและอาจนำไปสู่ผลลัพธ์ที่ผิดจรรยาบรรณ เพื่อทำความเข้าใจว่าปัญหาด้านจริยธรรมของปัญญาประดิษฐ์อาจเกิดขึ้นที่ใดและในอนาคตของการทำงานจะหลีกเลี่ยงปัญหาเหล่านั้นได้อย่างไร จะช่วยจัดระเบียบ AI ตามประเด็นหลักสี่ประการ:
เทคโนโลยีข้อมูลและการรักษาความปลอดภัย ดูแนวทางขององค์กรต่อวงจรชีวิต AI จากมุมมองด้านจริยธรรม รวมถึงวิธีที่องค์กรสร้างและทดสอบข้อมูลและแบบจำลองในโซลูชันที่ใช้เทคโนโลยี AI ความเป็นผู้นำในมิตินี้มาจากหัวหน้าฝ่ายข้อมูล เทคโนโลยี ข้อมูล ความปลอดภัย และความเป็นส่วนตัวขององค์กร
การบริหารความเสี่ยงและการปฏิบัติตาม ค้นหาวิธีที่องค์กรพัฒนาและบังคับใช้นโยบาย ขั้นตอน และมาตรฐานสำหรับโซลูชัน AI ดูว่าพวกเขาเชื่อมโยงกับพันธกิจ เป้าหมาย และข้อกำหนดทางกฎหมายหรือข้อบังคับขององค์กรอย่างไร หัวหน้าฝ่ายความเสี่ยง การปฏิบัติตามข้อกำหนด กฎหมาย และจริยธรรม มีบทบาทในมิตินี้
คนทักษะรุ่นขององค์กรและการฝึกอบรม ทำความเข้าใจและติดตามว่าการใช้ AI ส่งผลต่อประสบการณ์ของทั้งพนักงานและลูกค้าอย่างไร ประเมินอย่างต่อเนื่องว่ารูปแบบการดำเนินงาน บทบาท และแบบจำลององค์กรมีการพัฒนาอย่างไรอันเนื่องมาจากการใช้ AI ให้ความรู้แก่พนักงานทุกระดับและดำเนินการตามความคิดริเริ่มการฝึกอบรมเพื่อปรับแต่งหรือเพิ่มทักษะ สร้างโปรโตคอลเพื่อจูงใจพฤติกรรมที่มีจริยธรรมและสนับสนุนการตัดสินใจด้านจริยธรรมตลอดวงจรชีวิตของ AI ในมิตินี้ ฝ่ายทรัพยากรบุคคลจะแบ่งปันความรับผิดชอบกับทีมการเรียนรู้และการพัฒนา เจ้าหน้าที่จริยธรรม และความเป็นผู้นำในวงกว้างของผู้บริหาร
นโยบายสาธารณะกรอบกฎหมายและกฎระเบียบและผลกระทบต่อสังคม สุดท้าย พัฒนาความรู้สึกของ AI ในสภาพแวดล้อมทางธุรกิจ ซึ่งรวมถึงระดับการยอมรับของ AI ในรัฐบาลและวัฒนธรรม นอกจากนี้ยังรวมถึงทิศทางของกฎหมายและข้อบังคับที่เกี่ยวข้องกับ AI นำข้อมูลนี้ไปปรับใช้กับเอฟเฟกต์ที่ AI น่าจะมีเมื่อเวลาผ่านไปในแง่ของการศึกษา การจ้างงาน รายได้ วัฒนธรรม และแง่มุมอื่นๆ ของสังคม
หัวหน้าเจ้าหน้าที่ข้อมูล หัวหน้าเจ้าหน้าที่ความเสี่ยง หัวหน้าเจ้าหน้าที่การปฏิบัติตามกฎระเบียบ และหัวหน้าเจ้าหน้าที่การเงิน มีบทบาทเป็นผู้นำในสามมิติแรก ในขณะที่มิติที่สี่อาศัยความเป็นผู้นำจากนักการเมือง หน่วยงานกำกับดูแล และหน่วยงานกำหนดนโยบายอื่นๆ

เว็บแอพพลิเคชั่น

ตัวอย่างความเสี่ยงด้านจริยธรรม AI AI
การพิจารณาด้านจริยธรรมมีอยู่ในแต่ละขั้นตอนของวงจรชีวิต AI
การวิจัยและการออกแบบ ความเสี่ยงโดยธรรมชาติของโซลูชัน (เช่น แอปพลิเคชันคอมพิวเตอร์วิทัศน์ที่จับภาพและอาจใช้รูปภาพของลูกค้าหรือพนักงาน หรือข้อมูลส่วนบุคคลที่สามารถระบุตัวตนได้อื่นๆ ในทางที่ผิด) จะถูกมองข้ามในระหว่างขั้นตอนการออกแบบ
วัตถุประสงค์ที่ตั้งใจไว้ของโซลูชันไม่สอดคล้องกับภารกิจและค่านิยมขององค์กร กรอบการทำงานสำหรับสิ่งที่กำหนดการใช้ AI และข้อมูลอย่างมีจริยธรรมในองค์กร
แผงข้ามสายงานที่มีตัวแทนจากหน่วยธุรกิจตลอดจนกลุ่มเทคโนโลยี ความเป็นส่วนตัว กฎหมาย จริยธรรม และกลุ่มเสี่ยง
ข้อมูลหรือจรรยาบรรณ AI ที่ผู้เชี่ยวชาญต้องปฏิบัติตาม
สร้างและฝึกฝน องค์กรขาดวิธีการที่เหมาะสมในการขอคำยินยอมจากบุคคลที่มีข้อมูลถูกใช้เพื่อฝึกโมเดล AI
โปรแกรมเมอร์สร้างอคติ (ไม่ว่าจะโดยรู้ตัวหรือไม่รู้ตัว) ให้เป็นแบบจำลองที่มุ่งหมายสำหรับโซลูชันที่ใช้เทคโนโลยี AI เช่น ในตัวอย่างการสรรหาบุคลากรที่ได้อธิบายไว้ก่อนหน้านี้
ข้อมูลที่ใช้ในการฝึกโมเดล AI มีปัญหาด้านคุณภาพ กระบวนการกำหนดตำแหน่งและวิธีการรับข้อมูลที่ฝึกแบบจำลอง
แนวทางการพิจารณาความยินยอมของผู้ใช้ในที่ใดและอย่างไรในระยะการฝึกอบรม
นโยบายว่าจะสร้างแบบจำลองที่ไหนและอย่างไรและจะใช้เทคโนโลยีโอเพ่นซอร์สหรือไม่
การประเมินวิธีการที่โซลูชัน AI สามารถสอนพฤติกรรมที่ไม่สอดคล้องกับภารกิจหรือค่านิยมขององค์กร
เปลี่ยนและดำเนินการ แชทบ็อต (แอปพลิเคชัน AI ที่มีความสามารถด้านความรู้ความเข้าใจด้านภาษา) จะเรียนรู้พฤติกรรมใหม่ๆ ที่ไม่เหมาะสมหรือไม่เหมาะสมต่อลูกค้า
องค์กรไม่สามารถประเมินได้อย่างรวดเร็วว่าแหล่งข้อมูลใหม่ใดที่โซลูชันที่ใช้ AI เข้าถึงได้ด้วยตัวเองเมื่อเร็วๆ นี้
องค์กรขาดความสามารถในการทดสอบและตรวจสอบโซลูชัน AI กระบวนการให้องค์กรมีส่วนร่วมในการติดตามตรวจสอบอย่างต่อเนื่อง
การประเมินวิธีที่โซลูชันที่เปิดใช้งาน AI สามารถเข้าถึงข้อมูลรูปแบบใหม่ได้
กระบวนการสำหรับธุรกิจในการปรับปรุงบอร์ดเกี่ยวกับความเสี่ยงหรือประเด็นที่เกี่ยวข้องกับ AI
เกณฑ์ขององค์กรหรือระดับความคลาดเคลื่อนเพื่อช่วยในการพิจารณาว่าจะเลิกใช้โซลูชันที่เปิดใช้งาน AI หรือไม่
ก้าวแรกสู่เส้นทางจริยธรรม AI
จรรยาบรรณของ AI เป็นความพยายามที่กว้างขวางด้วยชิ้นส่วนที่เคลื่อนไหวได้มากมาย ในขณะเดียวกัน นอกเหนือจากเทคโนโลยีแล้ว แนวทางเริ่มต้นควรเป็นไปตามแนวทางที่คล้ายคลึงกันกับแผนงานด้านจริยธรรมและการปฏิบัติตามข้อกำหนดอื่นๆ ได้แก่
เริ่มต้นที่ด้านบน
คณะกรรมการบริหารและผู้บริหารระดับสูงเป็นผู้กำหนดแนวทางสำหรับแผนงานด้านจริยธรรมและการปฏิบัติตามข้อกำหนด แจ้งผู้นำระดับสูงของการใช้เครื่องมือ AI ทั่วทั้งองค์กร และวิธีที่ AI นำเสนอโอกาสและความเสี่ยงให้กับองค์กร ในขณะเดียวกัน ให้มีส่วนร่วมกับพวกเขาในการออกนโยบาย ขั้นตอน และมาตรฐานเพื่อจัดการกับจริยธรรม AI เป็นลำดับความสำคัญหลักขององค์กร
สื่อสารความตั้งใจของคุณให้ชัดเจน
โครงสร้างและกลไกที่มีจริยธรรมปกป้ององค์กรในขณะที่จัดการกับความเสี่ยงที่เกี่ยวข้องกับการใช้ข้อมูลและเทคโนโลยี ในการเริ่มต้น ให้พิจารณาพัฒนา “หลักจรรยาบรรณ” ของ AI สำหรับนักวิทยาศาสตร์ด้านข้อมูลและผู้เชี่ยวชาญด้านข้อมูลอื่นๆ ในขณะที่ตั้งค่าช่องทางสำหรับปัญหาที่บานปลาย พิจารณากำหนดหลักการใช้ AI ระหว่างผู้บริหาร พนักงาน นักลงทุน และลูกค้า ตามความเหมาะสมกับองค์กร
[NPC4]ประเมินความเสี่ยง
จริยธรรมของ AI นั้นเกี่ยวกับการทำความเข้าใจความเสี่ยงมากพอๆ กับการสร้างกระบวนการเพื่อหลีกเลี่ยงความเสี่ยง มีความชัดเจนว่าคุณกำลังสร้างโซลูชัน AI ประเภทใดและคุณกำลังสร้างเพื่อใคร ระบุกระบวนการในวงจรชีวิตของ AI ที่อาจส่งผลเสียต่อผู้มีส่วนได้ส่วนเสีย เรียงลำดับตามลำดับความสำคัญ และจัดสรรทรัพยากรเพื่อลดความเสี่ยง
ยกตัวอย่าง
ให้ทีมผลิตภัณฑ์รู้ว่าควรมองหาอะไรในการเฝ้าติดตามโซลูชันด้านจริยธรรมของ AI วิธีหนึ่งคือการฝังการใช้ข้อมูลและเทคโนโลยีอย่างมีจริยธรรมในการออกแบบสถาปัตยกรรมไอที (คล้ายกับกรอบความเป็นส่วนตัวโดยการออกแบบ) อีกประการหนึ่งคือการออกแบบโครงสร้างการควบคุมและฝังไว้ในโซลูชันที่เปิดใช้งาน AI
ติดราวกันตก
องค์กรควรพิจารณาสร้างรั้วป้องกันในเชิงรุกเพื่อเป็นแนวทาง ตรวจสอบ และประเมินว่าองค์กร พนักงาน ผู้ขาย และลูกค้าใช้ AI อย่างไร รั้วดังกล่าวอาจเป็นเทคนิคหรือเชิงองค์กร—คล้ายกับการควบคุมภายใน
ตัวอย่างของรั้วทางเทคนิคคือกรอบการควบคุมที่ฝังอยู่ภายในการออกแบบโซลูชัน AI ที่ป้องกันไม่ให้การดำเนินการบางอย่างเสร็จสิ้น ตัวอย่างรั้วทางเทคนิคอีกตัวอย่างหนึ่งคือการใช้ AI ที่อธิบายได้และตีความได้ ซึ่งการตัดสินใจเบื้องหลังโซลูชันที่ใช้ AI นั้นโปร่งใสและอธิบายได้
ตัวอย่างของ guardrail ขององค์กรคือแผงข้ามสายงานที่ประเมินโซลูชันที่เปิดใช้งาน AI ทั้งหมดก่อนที่จะสร้าง (คล้ายกับคณะกรรมการตรวจสอบสถาบัน) และพิจารณาผลกระทบของประเด็นที่เกี่ยวข้องกับจริยธรรม AI ที่มีอยู่และที่ยังไม่ได้ดำเนินการ โซลูชั่นเอไอ คณะกรรมการดังกล่าวควรมีความรับผิดชอบและกฎบัตรที่ชัดเจนในการขับเคลื่อนการเปลี่ยนแปลงและมีอิทธิพลต่อการตัดสินใจทั่วทั้งองค์กร
ง่ายที่จะจมอยู่กับความซับซ้อนของ AI แต่การเริ่มต้นด้วยพื้นฐานสามารถสร้างผลกระทบในระยะสั้นในขณะที่ให้พื้นที่สูงสุดในการเรียนรู้ในขณะที่คุณไป เมื่อเวลาผ่านไป องค์กรสามารถผสานรวมความแตกต่างที่ละเอียดยิ่งขึ้นของจริยธรรม AI เพื่อให้เป็นที่รู้จักสำหรับองค์กรและผู้มีส่วนได้ส่วนเสีย
เรียนรู้เพิ่มเติม: เยี่ยมชม Notre Dame Deloitte Center for Ethical Leadership
Deloitte ศูนย์ Notre Dame สำหรับการเป็นผู้นำทางจริยธรรม (NDDCEL)เป็นความร่วมมือระหว่างมหาวิทยาลัย Notre Dame และ Deloitte
หลังจากระบุคุณค่าร่วมกันของความซื่อสัตย์ส่วนบุคคลในโลกธุรกิจปัจจุบัน NDDCEL ได้รวมตัวกันเพื่อพัฒนาความเข้าใจและการนำแนวปฏิบัติในการเป็นผู้นำที่มีจริยธรรมไปใช้ในขอบเขตขององค์กร
ทุกวันนี้ ด้วยการใช้โซลูชันที่ใช้เทคโนโลยี AI เพิ่มมากขึ้น จริยธรรมและความเป็นผู้นำกำลังเข้าสู่ดินแดนที่ไม่คุ้นเคย ปัจจุบันศูนย์มุ่งเน้นไปที่การพัฒนาความเข้าใจร่วมกันในประเด็นด้านจริยธรรม ความท้าทาย โอกาส และโซลูชันที่เกี่ยวข้องกับ AI และการวิเคราะห์ ในฐานะที่เป็นส่วนหนึ่งของความคิดริเริ่มนี้ NDDCEL เปิดโอกาสให้ผู้บริหารและผู้นำธุรกิจได้เรียนรู้เพิ่มเติมเกี่ยวกับหัวข้อที่มีการพัฒนาอย่างรวดเร็วนี้ เชื่อมต่อกับเพื่อนร่วมงานที่มีความคิดเหมือนๆ กัน และช่วยพัฒนาผู้นำธุรกิจรุ่นต่อไปด้วยการแปลข้อมูลเชิงลึกด้านการวิจัยไปสู่แนวทางปฏิบัติชั้นนำ
[NPC5]การจัดการกับความจำเป็นของจริยธรรม AI—ความรับผิดชอบของทุกคน
ด้วยแมชชีนเลิร์นนิง การเรียนรู้เชิงลึก NLP และความสามารถในการมองเห็นด้วยคอมพิวเตอร์ AI นำเสนอโอกาสที่น่าตื่นเต้นในการปรับปรุงสภาพของมนุษย์ แต่มีด้านมืดที่อาจเกิดขึ้นกับ AI ที่ยากจะมองข้าม
ผลที่ได้คือพรมแดนใหม่ในจรรยาบรรณทางธุรกิจ ผู้ที่เกี่ยวข้องกับความก้าวหน้าของ AI รวมถึงคณะกรรมการบริษัท ทีมผู้บริหาร นักวิจัย และวิศวกร ต้องเผชิญกับความจำเป็นที่เพิ่มขึ้นในการนำเลนส์ที่มีจริยธรรมมาสู่สิ่งที่พวกเขาออกแบบและสร้าง แนวทางนี้ควรแสดงออกผ่านโครงสร้างทางจริยธรรมขององค์กรที่ใช้ตลอดวงจรชีวิตผลิตภัณฑ์ AI เพื่อให้มีประสิทธิภาพ แต่ละโครงสร้างควรสะท้อนถึงความเข้าใจในช่องโหว่ที่เกี่ยวข้องกับ AI ตามมิติความเสี่ยงทั้งสี่ที่อธิบายไว้ก่อนหน้านี้