AI ทำการตัดสินใจที่เราไม่เข้าใจ นั่นเป็นปัญหา

AI ทำการตัดสินใจที่เราไม่เข้าใจ นั่นเป็นปัญหา

เว็บไซต์

อัลกอริธึมการเรียนรู้ของเครื่องซึ่งเป็นเทคโนโลยีที่ขับเคลื่อน AI มีความก้าวหน้าอย่างรวดเร็วในทศวรรษที่ผ่านมา ทุกวันนี้อัลกอริธึมการเรียนรู้เชิงลึกเพิ่มพลังให้กับซอฟต์แวร์จดจำใบหน้า และทำให้ทุกคนสามารถสร้างรูปภาพและวิดีโอปลอมที่สมจริงได้ในเวลาเพียงไม่กี่นาที

การออกแบบเว็บไซต์

บริษัทและสถาบันต่างๆ ใช้อัลกอริธึม AI มากขึ้นเรื่อยๆ ตั้งแต่การสร้างผู้ช่วยเสียงอัจฉริยะไปจนถึงการแปลภาษาอัตโนมัติ แต่ด้วยการใช้ AI ที่เพิ่มขึ้นเรื่อยๆ ก็ยังเป็นปัญหาที่โมเดล AI นั้นยังไม่เป็นที่เข้าใจกันดี โดยส่วนใหญ่แล้ว ผู้คนมักไม่รู้ว่าเหตุใดโมเดล AI จึงตัดสินใจบางอย่าง
และไม่ใช่แค่คนทั่วไปที่อยู่นอกถนนเท่านั้นที่ไม่เข้าใจ แม้แต่นักวิจัยและโปรแกรมเมอร์ที่สร้างพวกเขาก็ยังไม่เข้าใจจริงๆ ว่าทำไมแบบจำลองที่พวกเขาสร้างขึ้นจึงตัดสินใจทำ
“ถ้าคุณไม่สามารถอธิบายได้อย่างเพียงพอว่าอัลกอริธึมของคุณกำลังทำอะไร นั่นอาจดูเหมือนเป็นปัญหา” ไบรอัน เลดจ์ รองศาสตราจารย์ด้านการเงินจากมหาวิทยาลัยคาร์เนกี เมลลอน กล่าว
การที่ผู้สร้างของตัวเองไม่เข้าใจเป็นอย่างดีนั้นเป็นปรากฏการณ์ที่แปลกประหลาดของ AI แต่ก็เป็นสาเหตุของพลังและความสำเร็จด้วย โดยใช้วิธี AI ผู้คนสามารถสร้างบางสิ่งที่ฝึกฝนตนเองและสามารถทำการคำนวณบางอย่างที่เกินความสามารถของผู้คนได้
“หากคุณไม่สามารถอธิบายได้อย่างเพียงพอว่าอัลกอริธึมของคุณกำลังทำอะไรอยู่ นั่นอาจดูเหมือนเป็นปัญหา”
ปรากฏการณ์นี้ทำให้เกิดช่องว่างที่เพิ่มขึ้นระหว่างสิ่งที่เราสามารถทำได้ด้วยเทคนิค AI กับความสามารถของเราในฐานะมนุษย์ในการทำความเข้าใจเทคโนโลยีที่เราใช้ และนี่เป็นส่วนหนึ่งของเหตุผลที่บางคนเรียกร้องให้มี “สิทธิ์ในการอธิบาย” เมื่อพูดถึง การใช้เอไอ
Routledge และผู้เขียนร่วม Tae Wan Kim เพิ่งเผยแพร่บทวิเคราะห์เกี่ยวกับสิทธิ์ในการอธิบาย โดยสรุปว่าประชาชนมีสิทธิทางจริยธรรมที่จะรู้ว่าแบบจำลอง AI ของบริษัทต่างๆ ตัดสินใจอย่างไร พวกเขาให้เหตุผลว่าผู้บริโภคควรจะสามารถเรียกร้องคำอธิบายสำหรับการตัดสินใจของ AI ที่เฉพาะเจาะจงซึ่งดูเหมือนมีอคติ และยังเรียนรู้เกี่ยวกับวิธีที่โมเดลเหล่านั้นทำการตัดสินใจ เพื่อให้สามารถตัดสินใจได้อย่างมีข้อมูลว่าบริษัทใดจะมอบธุรกิจให้
Routledge กล่าวว่าโมเดล AI ควรมีมาตรฐานใกล้เคียงกับยา ซึ่งเป็นสาขาที่ซับซ้อนอีกแห่งหนึ่งที่ทำการตัดสินใจที่สำคัญเกี่ยวกับผู้คน แต่มีคำอธิบายประกอบการตัดสินใจ
“ความสามารถในการอธิบายสิ่งต่าง ๆ ในลักษณะที่ผู้ป่วยได้รับแจ้งเป็นส่วนหนึ่งของความหมายของการเป็นแพทย์” เขากล่าว “แพทยศาสตร์จัดการกับเรื่องนี้มาเป็นเวลานาน ดังนั้นจึงเป็นเรื่องที่สอง เมื่อมีการรักษาใหม่ ส่วนหนึ่งของสิ่งที่พวกเขาคิดคือ ‘เราจะสื่อสารสิ่งนี้กับผู้ป่วยอย่างถูกต้องอย่างไร เพื่อให้พวกเขาได้รับแจ้งเมื่อพวกเขาเลือกใช่หรือไม่ใช่’”
คำอธิบายมีความสำคัญเมื่อมนุษย์ไม่สามารถตรวจสอบการทำงานของ AI ได้
Rayid Ghani ศาสตราจารย์ด้านแมชชีนเลิร์นนิงแห่งมหาวิทยาลัย Carnegie Mellon กล่าวว่าไม่ใช่ทุกกรณีการใช้งาน AI ที่ต้องการคำอธิบายเท่ากัน ตัวอย่างเช่น มักจะง่ายที่จะบอกได้ว่าโปรแกรมการจดจำภาพได้ติดฉลากสิ่งที่ไม่ถูกต้องหรือไม่ เช่น หากภาพที่ระบุว่า “สุนัข” แสดงถึงแมวจริงๆ และกรณีการใช้งานบางกรณีไม่เป็นผลสืบเนื่องเพียงพอที่จะต้องการคำอธิบาย
“หากคุณกำลังแสดงโฆษณาให้ใครเห็น ฉันไม่สนหรอกว่าคุณมีคำอธิบายที่ดีหรือไม่” เขากล่าว “ค่าใช้จ่ายสำหรับฉันในการดูโฆษณาที่ดีหรือไม่ดี มีความแตกต่างเพียงเล็กน้อย ฉันไม่สนใจ ฉันไม่ต้องการที่จะเห็นโฆษณาใดๆ เลย”
Ghani กล่าวว่าเทคโนโลยี AI ถูกใช้เพื่อบรรลุภารกิจสองประเภท: งานที่มนุษย์ทำได้ดี แต่ทำช้า หรืองานที่มนุษย์ไม่สามารถทำได้ ตัวอย่างเช่น มนุษย์สามารถจดจำและติดป้ายกำกับรูปภาพได้ดีเยี่ยม โมเดล AI สามารถฝึกให้ทำเช่นนั้นได้เช่นกัน ไม่จำเป็นต้องดีกว่ามนุษย์ แต่เร็วกว่ามาก
ในทางกลับกัน โมเดล AI ยังสามารถใช้เพื่อช่วยในการคาดการณ์ ซึ่งเป็นสิ่งที่คนทำได้ไม่ดี
Ghani กล่าวว่า “ใครจะเกี่ยวข้องกับการยิง หรือผู้ที่จะไม่จบการศึกษาจากโรงเรียนมัธยมตรงเวลา หรือใครจะตกงานในระยะยาว มนุษย์ไม่ค่อยเก่งในเรื่องนี้” Ghani กล่าว
การทำความเข้าใจว่าแบบจำลอง AI ตัดสินใจอย่างไรนั้นมีความสำคัญเป็นพิเศษสำหรับกรณีการใช้งานเชิงคาดการณ์ประเภทดังกล่าว เนื่องจากมนุษย์ไม่สามารถตรวจสอบได้ว่าแบบจำลองนั้นทำงานอย่างถูกต้องหรือไม่ ต่างจากการจัดหมวดหมู่รูปภาพ ซึ่งมนุษย์สามารถดูภาพเพื่อตรวจสอบว่ามีการติดป้ายกำกับอย่างถูกต้องหรือไม่ AI คาดการณ์จะให้ผลลัพธ์ที่มนุษย์ไม่สามารถตรวจสอบได้ด้วยตนเอง
“มันช่วยให้คุณค้นพบวิธีแยกการทำนายที่ถูกต้องออกจากการทำนายที่ไม่ถูกต้อง”
“ดังนั้นเมื่อคำอธิบายมาจากระบบ เราไม่รู้จริงๆ ว่าถูกต้องหรือไม่ เพราะเราไม่มีความเข้าใจนั้น ถ้าเราทำได้ เราก็ไม่จำเป็นต้องใช้คอมพิวเตอร์เพื่อช่วยเราแก้ปัญหานั้น” Ghani กล่าว “เพราะเราไม่ได้พยายามที่จะมีประสิทธิภาพ – เราพยายามที่จะดีกว่ามนุษย์”
Ghani ยินดีกับแนวคิดเรื่องสิทธิในการอธิบาย โดยคาดว่าจะได้รับประโยชน์มากมายเมื่อสามารถอธิบายการตัดสินใจของแบบจำลอง AI ได้ คำอธิบายสามารถช่วยให้ผู้คนทราบวิธีเปลี่ยนพฤติกรรมเพื่อให้ได้ผลลัพธ์ที่ดีขึ้น และตรวจสอบว่าแบบจำลองกำลังสรุปผลโดยอาศัยเหตุผลที่ผิดพลาดหรือไม่
Ghani ยกตัวอย่างของแบบจำลอง AI ทางการแพทย์เชิงสมมุติที่คาดการณ์ผลลัพธ์ของผู้ป่วย หากคำอธิบายของแบบจำลองเปิดเผยว่าปัจจัยสำคัญที่อยู่เบื้องหลังการตัดสินใจขึ้นอยู่กับวันในสัปดาห์ที่ผู้ป่วยเข้ารับการรักษา ผู้คนจะรู้ว่าสงสัยในความถูกต้องของแบบจำลอง – หรือโรงพยาบาลจะรู้ว่าจะตรวจสอบรูปแบบที่ยอมรับไม่ได้นี้ใน การพยากรณ์โรคของผู้ป่วย
Ghani กล่าวว่า “มันช่วยให้คุณเข้าใจวิธีแยกการคาดการณ์ที่ถูกต้องออกจากการคาดการณ์ที่ไม่ถูกต้อง “มันช่วยให้คุณตรวจสุขภาพ”
บางทีที่สำคัญที่สุด คำอธิบายอาจสามารถตอบสนองส่วนนั้นของเราที่น่าสงสัยอย่างถูกต้องเมื่อถูกขอให้เชื่อในสิ่งที่เราไม่เข้าใจ และเพื่อตอบคำถามมากมายของเรา: เหตุใดแบบจำลอง AI จึงทำการคาดคะเนนั้นโดยเฉพาะ โมเดล AI ตอบคำถามที่เราถามในแบบที่เราคาดหวังจริงหรือ เชื่อถือได้หรือไม่?
เราหมายถึงอะไรโดย ‘คำอธิบาย’
เรามาที่นี่ได้อย่างไร โดยที่แม้แต่ผู้เชี่ยวชาญที่สร้างโมเดล AI ก็ยังไม่เข้าใจว่าโมเดลเหล่านั้นกำลังตัดสินใจอย่างไร
วิธีการทำงานของแมชชีนเลิร์นนิงคือใช้ข้อมูลจำนวนมากในการปรับแต่งโมเดล นักวิทยาศาสตร์ข้อมูลใช้อัลกอริธึม AI ชี้ไปที่ผลลัพธ์ที่ต้องการ และโดยทั่วไปให้อัลกอริทึมทำงานเองโดยใช้ค่าสุ่มเริ่มต้นบางส่วนและข้อมูลการทดสอบจำนวนมาก ในที่สุด อัลกอริธึมจะปรับแต่งโมเดลให้เป็นสิ่งที่สามารถบรรลุผลลัพธ์ที่ต้องการได้ อัลกอริธึม AI ใช้ประโยชน์จากความสามารถของคอมพิวเตอร์ในการทำคณิตศาสตร์และคำนวณด้วยความเร็วสูง

เว็บแอพพลิเคชั่น

แต่ผลลัพธ์จากการแก้ปัญหาแบบแบรนด์นี้คือปฏิสัมพันธ์ในแบบจำลองที่สร้างขึ้นโดยการดูดซับข้อมูลจำนวนมากนั้นมากเกินไปสำหรับคนที่จะห่อความคิดของพวกเขา นั่นคือสิ่งที่ทำให้กล่องดำโมเดล AI จำนวนมาก — ยากหรือเป็นไปไม่ได้ที่จะเข้าใจ
เนื่องจากวิธีการทำงานของแบบจำลอง AI นั้นมีความเฉพาะเจาะจงและอิงทางคณิตศาสตร์ เมื่อคุณเจาะลึกในหัวข้อของ AI ที่อธิบายได้ คุณก็จะพบกับคำถามพื้นฐานว่าแนวคิดพื้นฐานเช่น “คำอธิบาย” และ “ความเข้าใจ” มีความหมายอย่างไร
“ใครเป็นคนตัดสินว่ามีบางสิ่งที่อธิบายได้? ถ้าฉันให้คำอธิบายแก่คุณ นั่นเป็นคำอธิบายที่ดีหรือไม่ดี”
อาจดูเหมือนเป็นการถกเถียงไร้สาระเกี่ยวกับความหมาย แต่การนิยามแนวคิดเหล่านี้อาจส่งผลกระทบในโลกแห่งความเป็นจริงต่อธุรกิจและการตัดสินใจด้านกฎระเบียบหากสิทธิ์ในการอธิบายเกิดขึ้น นั่นเป็นเพราะว่าข้อบังคับที่ดีนั้นต้องมีคำจำกัดความที่ถูกต้องและแม่นยำก่อน
Ghani กล่าวว่า “‘อธิบายได้’ และ ‘ถูกต้อง’ ในบางแง่ ทั้งสองเป็นแนวคิดที่คลุมเครือ “ใครเป็นคนตัดสินว่ามีบางสิ่งที่อธิบายได้? ถ้าฉันให้คำอธิบายแก่คุณ นั่นเป็นคำอธิบายที่ดีหรือไม่ดี? ความดีหมายถึงอะไร? ไม่ดีหมายความว่าอย่างไร”
มีวิธีหนึ่งในการกำหนด “คำอธิบาย” ที่ค่อนข้างง่าย แต่ไม่ตอบสนองการค้นหาความเข้าใจของมนุษย์ของเรา: เพียงทำตามข้อมูลในขณะที่ไหลผ่านฟังก์ชันทางคณิตศาสตร์ของแบบจำลอง การติดตามผ่านทุกเส้นทางจนกลายเป็นผลลัพธ์ของแบบจำลองในที่สุด
คำจำกัดความดังกล่าวมีรากฐานมาจากแนวคิดที่ว่าอัลกอริธึมเป็นเหมือนเครื่องจักร วิธีเดียวที่จะ “เข้าใจ” ได้อย่างแท้จริงก็คือการปฏิบัติตามกลไกของเครื่อง “ทำไม” เป็นคำถามของมนุษย์ที่ใช้กับเครื่องจักรไม่ได้ คุณไม่เคยถามรถว่า “ทำไม” – คำถามที่แท้จริงคือ “อย่างไร” ตรรกะเดียวกันนั้นควรนำไปใช้กับอัลกอริทึม Zachary Lipton ผู้บริหารห้องปฏิบัติการข่าวกรองเครื่องที่ถูกต้องโดยประมาณที่มหาวิทยาลัย Carnegie Mellon กล่าว
“คำถามหนึ่งที่คุณอาจถามคือ ‘พิจารณาฉันด้วยว่านางแบบมาถึงคำตอบได้อย่างไร’” ลิปตันกล่าว “และคำตอบคือ: ไม่มีคำตอบเฉพาะนอกเหนือจากน้ำหนักของแบบจำลอง”
ถึงกระนั้น นั่นอาจให้ความเข้าใจสำหรับโมเดลที่เรียบง่ายมาก แต่โมเดล AI ที่สร้างโดยอัลกอริธึม เช่น การเรียนรู้เชิงลึก สามารถรับข้อมูลที่มีแอตทริบิวต์นับพันได้อย่างง่ายดาย คุณสามารถติดตามอินพุตผ่านโมเดลเหล่านั้นได้ แต่จะไม่ให้ความเข้าใจอย่างลึกซึ้งว่าโมเดลมาถึงข้อสรุปได้อย่างไร ส่วนใหญ่เป็นเพราะข้อจำกัดของมนุษย์
“โครงข่ายประสาทเทียมระดับลึกที่ได้รับการฝึกฝนเกี่ยวกับภาพจะรับทุกอินพุตที่เป็นไปได้ในพื้นที่ 400,000 มิติ” ลิปตันกล่าว “การทำแผนที่แบบเต็มไม่ใช่สิ่งที่คุณจะคิดได้”
ใครคือผู้ชมที่ได้รับคำอธิบายอาจส่งผลต่อวิธีการกำหนดคำอธิบาย เนื่องจากผู้คนมีระดับความเข้าใจที่แตกต่างกันเมื่อพูดถึงแนวคิด AI การอธิบายแบบจำลองให้กับนักวิจัย AI อาจแตกต่างอย่างมากจากการอธิบายให้คนทั่วไปฟัง ผู้กำหนดนโยบาย หรือนักธุรกิจ
“โครงข่ายประสาทเทียมระดับลึกที่ได้รับการฝึกฝนเกี่ยวกับภาพจะรับทุกอินพุตที่เป็นไปได้ในพื้นที่ 400,000 มิติ การทำแผนที่แบบเต็มไม่ใช่สิ่งที่คุณคิดได้”

Web​ application

เมื่อคุณเจาะลึกลงไป เป็นการยากที่จะระบุอย่างชัดเจนว่าการทำให้ AI สามารถอธิบายได้หมายความว่าอย่างไร ผู้คนเคยชินกับการได้รับคำอธิบายจากผู้อื่น เช่น เมื่อมีคนให้เหตุผลเบื้องหลังการตัดสินใจที่พวกเขาทำหรือการกระทำที่พวกเขาทำ แต่เราจะรู้ได้อย่างไรว่าเหตุผลที่พวกเขาให้นั้นเป็นเหตุผลที่ถูกต้องเกี่ยวกับแรงจูงใจที่แท้จริงของพวกเขา เราจะรู้ได้อย่างไรว่าคำอธิบายของพวกเขาคือคำอธิบายแบบเต็ม?
เมื่อผู้คนลงมือกระทำและตัดสินใจ พวกเขาไม่ได้ดึงเอาแค่ตรรกะล้วนๆ แต่ยังมาจากประสบการณ์ส่วนตัว ความรู้ อารมณ์ และบุคลิกภาพของพวกเขาด้วย โดยส่วนใหญ่ คำอธิบายของใครบางคนน่าจะเป็นการประมาณค่ามากกว่า ซึ่งเป็นชั้นบนสุดของความสับสนของปัจจัยจิตใต้สำนึก บางทีพวกเขาอาจไม่รู้ด้วยซ้ำถึงแรงจูงใจที่แท้จริงเบื้องหลังพฤติกรรมของตัวเอง
โมเดล AI ที่สร้างขึ้นโดยใช้อัลกอริธึมการเรียนรู้เชิงลึกและข้อมูลจำนวนมากยังใช้รูปแบบที่แคบของความซับซ้อนนี้ ส่วนใหญ่ในแง่ของประสบการณ์และความรู้
เราต้องการคำอธิบายชั้นใด บางทีสิ่งที่ผู้คนต้องการก็คือวิธีที่โมเดล AI เข้าถึงการตัดสินใจจริง ๆ ที่จะประมาณและทำให้เข้าใจง่ายเพียงพอ เพื่อให้เราสามารถสรุปกระบวนการทั้งหมดได้ในคราวเดียว แต่เป็นไปได้ไหมที่จะมีสิ่งนั้นและยังคงเรียกมันว่าคำอธิบาย?
สัญญา (ที่น่าสงสัย) ของ AI ที่อธิบายได้
มีสาขาวิชาที่เรียกว่าAI ที่อธิบายได้อยู่แล้ว นักวิจัยใช้เทคนิคทางคณิตศาสตร์เพื่อตรวจสอบรูปแบบในแบบจำลอง AI และสรุปผลว่าแบบจำลองเหล่านั้นตัดสินใจได้อย่างไร เทคนิค AI ที่อธิบายได้หลายอย่างเป็นเทคนิค “ทั่วไป” ซึ่งมีไว้สำหรับใช้ในการอธิบายรูปแบบการเรียนรู้ของเครื่องทุกประเภท
แต่ลิปตันถือว่า AI ที่อธิบายได้ในปัจจุบันนั้นเต็มไปด้วยคำสัญญาที่ผิดๆ เขากล่าวว่าประโยชน์ของการใช้เทคนิค AI ที่อธิบายได้กับโมเดล AI ทุกประเภท ซึ่งทำให้เทคนิคเหล่านี้น่าสนใจ ยังทำให้พวกเขาไม่สามารถอธิบายสิ่งที่มีความหมายได้
เทคนิค AI ที่อธิบายได้บางประการสำหรับการติดป้ายกำกับรูปภาพ เช่น การปิดบังส่วนของรูปภาพในแต่ละครั้ง จากนั้นจึงเรียกใช้ภาพที่ดัดแปลงผ่านโมเดล AI ดั้งเดิมเพื่อดูว่าเอาต์พุตใหม่มีความแตกต่างจากต้นฉบับอย่างไร
แต่ลิปตันตั้งสมมติฐานว่าการทำให้บางส่วนของภาพมืดลงอาจทำให้ภาพเหล่านั้นไม่เหมือนกับภาพธรรมชาติที่ส่งผลต่อผลลัพธ์ของแบบจำลองเกินกว่าที่นักวิจัยคาดไว้ แม้ว่าวิธีการ AI ที่อธิบายได้จะใช้คณิตศาสตร์เพื่อให้ได้ผลลัพธ์ แต่เขากล่าวว่าเทคนิคทางคณิตศาสตร์เหล่านั้นยังไม่ได้รับการพิสูจน์ว่าให้ข้อมูลเชิงลึกเกี่ยวกับแบบจำลอง AI
“หลายวิธีเหล่านี้กำลังให้บางสิ่งที่ไม่ได้บอกอะไรคุณเลยจริงๆ”
“หากมีสมการสองสมการในสิ่งที่คุณเรียกว่าคำอธิบาย และคุณกำลังนำเสนอให้กับคนที่ไม่รู้หนังสือทางคณิตศาสตร์ พวกเขาไม่มีความสามารถในการมองสิ่งนั้นและเรียกเรื่องไร้สาระ” ลิปตันกล่าว “หลายวิธีเหล่านี้กำลังให้บางสิ่งที่ไม่ได้บอกอะไรคุณเลยจริงๆ”
เขากล่าวว่านักวิจัย AI สามารถเปลี่ยนข้อสรุป AI ที่อธิบายได้อย่างมากโดยการปรับแต่งเล็กน้อยให้กับโมเดล AI ในขณะที่ยังคงผลลัพธ์ของแบบจำลองเดียวกัน
“เห็นได้ชัดว่า มันไม่ใช่คำอธิบายตั้งแต่แรก หากคุณสามารถชักจูงคำอธิบายใดๆ ที่คุณต้องการโดยไม่เปลี่ยนแปลงสิ่งที่คุณกำลังทำอยู่” เขากล่าว
ความคลุมเครือของคำว่า “คำอธิบาย” เป็นส่วนหนึ่งของข้อกังวลของลิปตัน เนื่องจากคำจำกัดความของคำอธิบายสำหรับแบบจำลอง AI นั้นกำหนดไว้อย่างหลวมๆ ผู้คนอาจยอมรับ “คำอธิบาย” ที่หนักหน่วงทางคณิตศาสตร์ซึ่งสร้างความสับสนและทำให้ตาพร่า แต่จริง ๆ แล้วไม่ได้ให้คำตอบที่แท้จริง
“พื้นที่ส่วนใหญ่ถูกบุกรุกโดยสิ่งนั้นอย่างแม่นยำ” ลิปตันกล่าว “โดยพื้นฐานแล้ว สิ่งที่ผู้คนทำคือพวกเขาเสนออัลกอริธึม และมันเป็นแค่กลอุบายบางอย่าง”
อาจเป็นเรื่องยากที่จะเข้าใจคำอธิบายที่นำเสนอ หากคำอธิบายของตัวแยกประเภทรูปภาพเน้นเฉพาะพื้นที่บนรูปภาพนั่นเป็นคำอธิบายจริงๆ หรือ จริงๆ แล้วมันบอกอะไรเกี่ยวกับการตัดสินใจของตัวแบบ?

Robot Auto process

“ปัญหาคือพวกเขากำลังถูกหลอกโดยอุตสาหกรรมกระท่อมที่คิดว่าคุณสามารถนำโมเดลการเรียนรู้ของเครื่องคาดการณ์ล่วงหน้า โบกไม้กายสิทธิ์บนพวกเขา สร้างภาพบางส่วน และเรียกสิ่งนั้นว่าคำอธิบาย”
เป็นไปได้ที่จะเข้าสู่สถานการณ์ที่คุณต้องการอัลกอริทึมอื่นเพื่อตีความคำอธิบาย Ghani กล่าว
“มันเป็นเรื่องแปลกที่ตอนนี้คุณต้องสร้างระบบอื่นนอกเหนือจากระบบคำอธิบายเพื่ออธิบายผู้อธิบาย” เขากล่าว