วิธีการใช้ AI อย่างมีจริยธรรมในกระบวนการจ้างงาน

วิธีการใช้ AI อย่างมีจริยธรรมในกระบวนการจ้างงาน

เว็บไซต์

การลงทุนขององค์กรทั่วโลกใน AI คาดว่าจะเพิ่มขึ้นเป็นสองเท่าเป็นประมาณ 110 พันล้านดอลลาร์ในอีกสองปีข้างหน้า หนึ่งในพื้นที่หลักของแอปพลิเคชันสำหรับ AI ขององค์กรคือการสรรหา (เช่น การจัดหาพนักงาน การจ้างงาน การคัดเลือกพนักงาน ฯลฯ) ไม่น้อยเพราะนายหน้าที่เป็นมนุษย์เสียเวลาอย่างมากในการป้อนข้อมูล จัดเรียงประวัติย่อ และอนุมานเกี่ยวกับผู้สมัครอย่างไม่ถูกต้อง ‘ พรสวรรค์และศักยภาพ ทั่วประเทศและอุตสาหกรรม บริษัท ขนาดใหญ่เช่น IKEA, ยูนิลีเวอร์, Intel และ Vodafone พึ่งพาอัลกอริทึมการตัดสินใจของพวกเขาในขั้นตอนการสรรหา

การออกแบบเว็บไซต์

เป็นที่น่าสังเกตว่าวิธีการว่าจ้างแบบดั้งเดิมที่ได้รับความนิยมมากที่สุดมีความแม่นยำต่ำมากและการพยายามประเมินความเหมาะสมในการทำงานของผู้อื่นนั้นมักจะปนเปื้อนด้วยทัศนคติแบบเหมารวมและอคติตามปกติที่บ่อนทำลายความเที่ยงธรรมของมนุษย์ และลดความสามารถของเราในการทำความเข้าใจผู้อื่น ไม่น่าแปลกใจที่นายหน้าจำนวนมากมองว่านวัตกรรมทางเทคโนโลยี เช่น อัลกอริธึมการเรียนรู้ด้วยเครื่องช่วยประหยัดเวลาได้มาก และการวิจัยทางวิชาการที่เกิดขึ้นใหม่ชี้ให้เห็นว่า AI ยังช่วยเพิ่มความพยายามขององค์กรในการทำนายผลการปฏิบัติงานของพนักงานได้อย่างถูกต้องและเลือกบุคคลที่เหมาะสมสำหรับบทบาทที่เหมาะสม ตลอดจนการเพิ่มความเป็นธรรมโปร่งใสและความสม่ำเสมอ
อย่างไรก็ตาม ยังมีความกังวลของสาธารณชนและความไม่ไว้วางใจอย่างมากเกี่ยวกับการใช้ AI ในการตัดสินใจจ้างงาน โดยเฉพาะอย่างยิ่งเมื่อเทียบกับวิธีการจ้างงานแบบเดิมเช่นเดียวกับความกลัวอย่างมากว่า AI จะกำจัดงานของมนุษย์ หรือทำให้รัฐบาลสามารถสร้างการเฝ้าระวัง รัฐ . ความกังวลเหล่านี้ทำให้การตัดสินใจจ้างงานที่ได้รับความช่วยเหลือหรือได้รับอิทธิพลจาก AI เป็นแรงผลักดันให้เกิดผลดีและส่งผลดีต่อผู้สมัครและผู้หางาน
เพื่อความแน่ใจ ไม่ใช่ทุกสิ่งที่น่าเชื่อถือตามหลักจริยธรรม เช่นเดียวกับไม่ใช่ทุกสิ่งที่น่าเชื่อถือจริง ๆ แล้วมีจริยธรรม (เช่น นักการเมืองที่ได้รับการเลือกตั้งตามระบอบประชาธิปไตยหลายคนนั้นผิดจรรยาบรรณแต่น่าเชื่อถือ ซึ่งเป็นการผสมผสานที่มีแนวโน้มว่าจะส่งผลที่น่าเศร้า ) แต่นายจ้างคนใดที่สนใจจะใช้ประโยชน์จาก AI หรือเทคโนโลยีเกิดใหม่อื่น ๆ เพื่อเพิ่มประสิทธิภาพกระบวนการจ้างงานและการจัดหางาน ควรตระหนักถึงการตรวจสอบข้อเท็จจริงที่เพิ่มขึ้น และความสงสัยของสาธารณชน สื่อ และความสงสัยด้านกฎระเบียบ เพื่อลดความเสี่ยงและผลที่ตามมาโดยไม่ได้ตั้งใจของการใช้ AI ในทางที่ผิด จากการทบทวนเชิงวิชาการล่าสุดสรุป: “มีความคลาดเคลื่อนระหว่างความกระตือรือร้นในการตัดสินใจโดยใช้อัลกอริธึมในฐานะยาครอบจักรวาลสำหรับความไร้ประสิทธิภาพและการขาดแคลนแรงงาน และภัยคุกคามจากการเลือกปฏิบัติและความไม่เป็นธรรมของการตัดสินใจด้วยอัลกอริทึมในอีกด้านหนึ่ง”
โชคดีที่ในช่วงไม่กี่ปีที่ผ่านมามีแนวทางและกรอบการทำงานเพิ่มมากขึ้นเพื่อช่วยให้องค์กรต่างๆใช้ AI อย่างมีจริยธรรมซึ่งรวมถึงในการตัดสินใจจ้างงานและการจัดหาพนักงาน เหนือสิ่งอื่นใด ยังมีหลักการทางวิทยาศาสตร์ที่เป็นที่ยอมรับสำหรับการตรวจสอบเครื่องมือการประเมินและการคัดเลือกต่างๆ ซึ่งยังคงมีความเกี่ยวข้องและถูกต้องในการตรวจสอบจริยธรรมของ AI และนวัตกรรมที่เกิดขึ้นใหม่ ( รวมถึง EEOCและกฎที่เกี่ยวข้อง) แม้ว่าผู้ประกอบวิชาชีพทั่วไปอาจรู้สึกงุนงงและสับสนกับงานเขียนและคำแนะนำจำนวนมาก แต่ข่าวดีก็คือมีการบรรจบกันอย่างมากเกี่ยวกับหลักการพื้นฐานสำหรับ AI ที่มีจริยธรรมในการจ้างงาน ซึ่งสามารถสรุปได้เป็น 6 หลัก คะแนน:
(1) ผลประโยชน์ของผู้สมัคร : คนหางานและผู้สมัครจะดีกว่าไหมถ้าใช้วิธีนี้? ในที่นี้ เราต้องการเห็นหลักฐานว่าผู้สมัครที่ถูกมองข้ามและถูกละเลยในอดีตนั้นสามารถประเมินได้อย่างถูกต้อง รวมทั้งมีการตรวจสอบศักยภาพของผู้สมัครอย่างเหมาะสม ตัวอย่างของวิธีที่ AI อาจช่วยได้อาจรวมถึงการจัดหาผู้มีความสามารถนอกกลุ่มปกติ และความสามารถในการตรวจสอบสัญญาณที่เกี่ยวข้องของความสามารถโดยไม่สนใจตัวบ่งชี้ที่ไม่เกี่ยวข้อง เช่น ตัวชี้วัดที่มักนำไปสู่การตัดสินใจที่ไม่ยุติธรรมและมีอคติ ตลอดจนการเลือกปฏิบัติ (อายุ เพศ) เชื้อชาติ ความน่าดึงดูดใจ และชนชั้นทางสังคม) บริษัทต่างๆ สามารถวัดระดับที่การนำ AI ไปใช้เพิ่มการเป็นตัวแทนและมีส่วนช่วยในการเสริมสร้างความหลากหลายและการริเริ่มในการรวมเข้าด้วยกัน
(2) แจ้งความยินยอม : ผู้หางานและผู้สมัครตกลงที่จะทำธุรกรรมอย่างมีข้อมูลและโปร่งใสกับนายหน้าและนายจ้างด้วยความเข้าใจที่เพียงพอว่าพวกเขากำลังได้รับการประเมินว่าเหมาะสมกับงานหรือไม่? ความยินยอมได้เป็นตัวแทนของรากฐานที่สำคัญพื้นฐานของการคัดเลือกบุคลากรและการประเมินผลเช่นเดียวกับการเสมอจริยธรรมการวิจัยทางวิทยาศาสตร์ อันที่จริง แม้ว่าจะมีคำถามเกี่ยวกับผลประโยชน์ของผู้สมัคร (จุดที่ 1) ก็สมเหตุสมผลที่จะให้ผู้สมัครและผู้หางานเลือกเข้าร่วม สู่กระบวนการพิจารณารับงานหรือบทบาท แต่หวังว่าพวกเขาจะทำเช่นนั้นได้ก็ต่อเมื่อได้รับฟังการบรรยายสรุปและแจ้งเกี่ยวกับกระบวนการอย่างครบถ้วนแล้วเท่านั้นจึงจะสามารถทำการวิเคราะห์ต้นทุน-ผลประโยชน์อย่างมีเหตุผลเพื่อให้เกิดปัญญา การตัดสินใจ
(3) ความแม่นยำที่เพิ่มขึ้น : เครื่องมือหรือวิธีการจ้างใหม่ใด ๆ รวมถึง AI ควรแสดงให้เห็นถึงความถูกต้องที่เพิ่มขึ้นกว่าเครื่องมือที่เป็นที่ยอมรับและพิสูจน์แล้ว ตามหลักการแล้ว สิ่งนี้ควรคำนึงถึงไม่เพียงแต่ความแม่นยำในการคาดการณ์เท่านั้น (เช่น วิธีการคัดกรองแบบใหม่คาดการณ์ผลลัพธ์ที่ต้องการในอนาคตโดยสัมพันธ์กับเครื่องมือที่มีอยู่ ที่รู้จัก และตรวจสอบแล้วได้ดีเพียงใด) แต่ประโยชน์ใช้สอยโดยรวม ซึ่งรวมถึงเวลา ต้นทุน และ ROI โดยรวมด้วย . จำเป็นต้องพูด เป็นไปไม่ได้ที่จะใช้เครื่องมือหรือวิธีการใด ๆ อย่างมีจริยธรรม (รวมถึง AI) เว้นแต่จะถูกต้อง หาก AI หรือเครื่องมือใดๆ ไม่สามารถประเมินผู้สมัครได้อย่างแม่นยำ หรือเพียงแค่วัดความสามารถหรือศักยภาพของบุคคลได้ไม่สมบูรณ์มากขึ้น ก็มีเหตุผลที่จะเรียกร้องเหตุผลทางจริยธรรมในการใช้งาน แทนที่จะเป็นเครื่องมือที่ดีกว่า แม่นยำกว่า และมีอยู่จริง กล่าวโดยย่อคำถามทางจริยธรรมที่สำคัญ คือเครื่องมือใหม่ที่ใช้สามารถลดข้อผิดพลาดในการวัด เพิ่มความแม่นยำในการคาดการณ์ และมีความลำเอียงน้อยกว่าทางเลือกอื่น
(4) ความสามารถใน การอธิบาย : ไม่เพียงพอที่ AI หรือวิธีการจ้างงานแบบใหม่จะคาดการณ์ผลลัพธ์ได้อย่างแม่นยำ – เรายังต้องการอธิบายลักษณะของการคาดคะเนนั้นด้วย ที่จริงแล้ว มันจะดีกว่าเสมอจากมุมมองทางจริยธรรม ไม่ใช่แค่อนุมานว่าถ้าเราเลือกคน X เราจะเพิ่มความน่าจะเป็นที่ Y จะเกิดขึ้น แต่ยังเพิ่มความเข้าใจของเราด้วยว่าเหตุใดนี้ควรจะเกิดขึ้น AI ส่วนใหญ่เป็นเครื่องจับคู่รูปแบบที่มีความสามารถในการปรับปรุงความเร็วและความแม่นยำในการจำแนกเหตุการณ์เป็นผลลัพธ์ที่ต้องการหรือไม่ อย่างไรก็ตาม การจับคู่รูปแบบเพียงอย่างเดียวไม่เพียงพอที่จะอธิบายหรือเข้าใจสิ่งที่เกิดขึ้นในกระบวนการสรรหาบุคลากร และในขณะที่ AI สามารถเรียนรู้และปรับปรุงจากข้อมูลได้ เราก็ควรมีทฤษฎีในการแปลข้อมูลของเราเป็นข้อมูลเชิงลึก (วิทยาศาสตร์มักจะเป็นข้อมูล + ทฤษฎี) ตัวอย่างเช่น อัลกอริธึมที่คาดการณ์ว่ารูปแบบการใช้ภาษา/ความถี่ของคำ หรือลักษณะทางกายภาพบางอย่างของเสียง/คำพูดของใครบางคน เป็นเครื่องหมายที่เกี่ยวข้องของความเหมาะสมกับงานในอนาคต มีการป้องกันทางจริยธรรมน้อยกว่าอัลกอริธึมที่อธิบายว่ารูปแบบการสื่อสารเฉพาะนี้ หรือคำพูดบ่งบอกถึงความวิตกกังวลที่สูงขึ้น ความยืดหยุ่นต่อความเครียดที่ต่ำกว่า หรือลักษณะบุคลิกภาพที่ต่อต้านสังคม ตามกฎทั่วไปแล้ว

เว็บแอพพลิเคชั่น

(5) คำติชม : หากเราไม่สามารถคาดการณ์พฤติกรรมในอนาคตของใครบางคนได้เท่านั้น แต่ยังเข้าใจความสามารถและศักยภาพของพวกเขาด้วย เราควรรู้สึกว่าถูกบังคับตามหลักจริยธรรมในการอธิบายสิ่งนี้แก่พวกเขา เพื่อเพิ่มความตระหนักในตนเองในอาชีพการงานของพวกเขา ในแง่นั้น เราควรพิจารณาผลตอบรับเป็นส่วนประกอบที่สำคัญต่อการใช้ AI ในการจ้างงานอย่างมีจริยธรรม แม้ว่าเราจะปฏิเสธผู้สมัครและผู้สมัครงานบางราย – หรือโดยเฉพาะอย่างยิ่งเมื่อเราปฏิเสธ– เราควรช่วยให้พวกเขาเข้าใจว่าทำไม. ในอดีต การสอบถามข้อมูลการปฏิเสธผู้สมัครงานโดยสังเขปเป็นเรื่องที่มีราคาแพงมากและใช้เวลานาน ดังนั้นแม้จากมุมมองด้านต้นทุนแล้ว นายจ้างก็ไม่สามารถอธิบายให้ผู้สมัครฟังว่าทำไมพวกเขาถึงไม่ได้รับการคัดเลือก แม้ว่าบางส่วนจะยังคงอยู่ แต่เราสามารถทำให้กระบวนการซักถามผู้สมัครและงานก่อนจ้างงานของผู้สมัครเป็นไปโดยอัตโนมัติ เกี่ยวกับส่วน AI ของการประเมิน ซึ่งอาจช่วยเสริมความแข็งแกร่งในการหางานในอนาคตของพวกเขา เราอยู่ในโลกที่คนส่วนใหญ่ไม่ได้รับผลตอบรับเกี่ยวกับความสามารถและศักยภาพของพวกเขา ซึ่งอธิบายได้ว่ามีผู้คนจำนวนมากที่ลงเอยด้วยอาชีพที่ไม่ถูกต้อง
(6) ความเป็นส่วนตัวและการไม่เปิดเผยชื่อ : หลักการสุดท้ายมักจะครอบคลุมภายใต้หลักการทางกฎหมายและระเบียบข้อบังคับรวมถึงกฎหมายความปลอดภัยทางไซเบอร์ แต่ก็เป็นส่วนสำคัญในการใช้ AI หรือเครื่องมือประเมินการจ้างงานอย่างมีจริยธรรม ข้อมูลส่วนบุคคลของผู้สมัครควรได้รับการคุ้มครองและเก็บไว้เป็นความลับ และข้อมูลส่วนบุคคลและข้อมูลของพวกเขาควรได้รับการปรับให้เหมาะสมสำหรับการไม่เปิดเผยชื่อสูงสุด สิทธิในความเป็นส่วนตัวเป็นสิทธิมนุษยชนขั้นพื้นฐาน และระบบหรือวิธีการใดๆ ที่บ่อนทำลายนั้นเป็นที่น่าสงสัยในเชิงจริยธรรม
สุดท้ายนี้ เราควรจำไว้ว่าทุกครั้งที่พูดถึง“AI ที่มีจริยธรรม” (หรือ “AI ที่ผิดจรรยาบรรณ”) AI ก็เหมือนกับเทคโนโลยีอื่นๆ ไม่มีทางเป็นจริยธรรมหรือผิดจรรยาบรรณได้ มีเพียงมนุษย์เท่านั้นที่ปรับใช้มันที่สามารถถือว่ามีจริยธรรมหรือผิดจรรยาบรรณและผู้ที่ควรจะรับผิดชอบ และเป็นมนุษย์กลุ่มเดียวกันที่สามารถประพฤติตนอย่างมีจริยธรรมและผิดจรรยาบรรณโดยไม่ได้รับความช่วยเหลือจาก AI และควรได้รับการรับผิดชอบ
วงการทีวียังคงพัฒนาอย่างต่อเนื่อง และบริษัทสื่อแบบเดิมๆ ก็พยายามดิ้นรนเพื่อให้ตามทัน ว่าที่อดีตข่าวซีบีเอและซีเอ็นเอ็นผู้บริหารจอนไคลน์มาใน. ในการเขาปัญญาประดิษฐ์เป็นวิธีการที่ทีวีสามารถอยู่ในการแข่งขันกับ บริษัท ดิจิตอลสตรีมมิ่งและเนื้อหา OTT รายงานบรอดคาสติ้งเคเบิ้ล
ลางสังหรณ์ของไคลน์ได้ผลดีในอดีต ทั้งในช่วงแรกเริ่มใช้โซเชียลมีเดียในขณะที่ทำงานอยู่ที่ CNN และกลยุทธ์การเริ่มต้นของ The Feedroom ในการสตรีมเกม NCAA March Madness ไปยังพีซี ที่ TAPP Media ธุรกิจล่าสุดของเขา ผู้ใช้สามารถเข้าถึงการสมัครรับข้อมูลวิดีโอแบบออนดีมานด์ได้ ข้อมูลที่เพิ่มขึ้นเรื่อย ๆ ของ TAPP คือสิ่งที่ทำให้เขาตระหนักว่า AI หายไปจากชุดเครื่องมือของบริษัทสื่อทั่วไป “โดยพื้นฐานแล้วมันมีขนาดเดียว” ไคลน์กล่าวถึงเครื่องมือ AI ราคาแพงจาก IBM และ Google

Web​ application

การค้นหาทางเลือกที่เหนือกว่าของเขาทำให้เขาได้รู้จัก Vilynx ในสเปน ซึ่งเป็นสตาร์ทอัพด้าน AI และแมชชีนเลิร์นนิงโดยมุ่งเน้นที่บริษัทด้านสื่อ ไคลน์เป็นผู้นำเสนอผลิตภัณฑ์ของพวกเขา เขาจึงเข้าร่วมกับ Vilynx ในตำแหน่งประธานและจะเป็นผู้นำในการขยายธุรกิจในสหรัฐอเมริกา ซึ่งบริษัทได้โน้มน้าวลูกค้าชื่อดังอย่าง NBC News แล้ว
“ฉันค้นพบกลุ่มอัจฉริยะกลุ่มนี้ที่มุ่งเน้นเรื่อง AI สำหรับสื่อโดยเฉพาะ” ไคลน์กล่าวถึง Vilynx “บริษัทสื่อต้องการคนที่สามารถประมวลผลวิดีโอได้มากมาย เจาะลึกลงไปในนั้น จากนั้นจากกองข้อมูลนั้นจะสร้างผลิตภัณฑ์ที่ช่วยให้คุณทำเงินได้มากขึ้น ที่ช่วยให้คุณสร้างลูกค้าเพิ่มขึ้นและรักษาลูกค้าของคุณไว้”
“Netflix และ Amazon มีทีมปัญญาประดิษฐ์ขนาดใหญ่ภายในองค์กรที่รวบรวมข้อมูลจำนวนมหาศาล วิเคราะห์และดำเนินการกับข้อมูล และส่วนที่เหลือของแพ็คไม่มีสิ่งนั้นเลย ดังนั้นพวกมันจึงถูกแช่แข็ง พวกมันเหมือนกวางอยู่ในไฟหน้า พวกเขารู้ว่า AI กำลังเปลี่ยนแปลงทุกๆ อุตสาหกรรม แต่พวกเขาไม่แน่ใจว่าจะควบคุมมันอย่างไรสำหรับพวกเขา”
Klein คร่ำครวญถึงความเขลาของบริษัทสื่อที่พยายามเอาชนะ Netflix และ Amazon ด้วยการนำเสนอเนื้อหา OTT โดยโต้แย้งว่าหากปราศจากความเข้าใจในข้อมูล บริษัทเหล่านี้มักจะล้มเหลวเสมอ
“Netflix และ Amazon มีทีมปัญญาประดิษฐ์ภายในองค์กรขนาดใหญ่ที่รวบรวมข้อมูลจำนวนมหาศาล วิเคราะห์และดำเนินการกับข้อมูล” Klein กล่าว “และส่วนที่เหลือของแพ็คไม่มีสิ่งนั้นเลย ดังนั้นพวกมันจึงถูกแช่แข็ง พวกมันเหมือนกวางอยู่ในไฟหน้า พวกเขารู้ว่า AI กำลังเปลี่ยนแปลงทุกๆ อุตสาหกรรม แต่พวกเขาไม่แน่ใจว่าจะควบคุมมันอย่างไรสำหรับพวกเขา”
ลูกค้าปัจจุบันของ Vilynx เป็นผู้ที่นำเทคโนโลยีเหล่านี้มาใช้ใหม่ และตอนนี้เพิ่งเริ่มมีส่วนร่วมใน AI และการเรียนรู้ของเครื่องเป็นเครื่องมือทางธุรกิจ ตัวอย่างเช่น NBC News ใช้ Vilynx เพื่อสร้างข้อมูลมากขึ้น 10 เท่าสำหรับแท็กข้อมูลเมตาสำหรับคลิปวิดีโอ ซึ่งนำไปสู่คำแนะนำและผลการค้นหาที่แม่นยำยิ่งขึ้น ตลอดจนจำนวนการดูวิดีโอที่เพิ่มขึ้น ส่งผลให้รายได้ดิจิทัลเพิ่มขึ้น ตามข้อมูลของ Klein Vilynx ช่วยสร้างการดูวิดีโอที่ NBC News เพิ่มขึ้น 60% ถึง 250%
“ในขณะที่คนส่วนใหญ่จะเน้นคำแนะนำของพวกเขาเกี่ยวกับเนื้อหาที่เป็นข้อความเป็นหลัก แต่ Vilynx เป็นเพียงคนเดียวในเวลานั้นที่มีความสามารถในการเข้าใจเนื้อหาวิดีโออย่างแท้จริง” Phil Zepeda อดีตผู้จัดการผลิตภัณฑ์ด้านเทคนิคของวิดีโอและการปรับเปลี่ยนในแบบของคุณกล่าว ที่ NBC News Digital ซึ่งกลายเป็น AI ที่เปลี่ยนใจเลื่อมใสจนเข้าร่วม Vilynx ในตำแหน่งรองประธานฝ่ายผลิตภัณฑ์

Robot Auto process

Zepeda เชื่อว่าบริษัทสื่อควรดูวิดีโอเป็น “จอกศักดิ์สิทธิ์” ของข้อมูลสำหรับบริษัทสื่อ และใช้ AI เพื่อดึงคุณค่าเพิ่มเติมจากเนื้อหานี้ Klein มองเห็นโอกาสสำหรับ AI และ Vilynx สำหรับการพัฒนากลุ่มเป้าหมาย OTT ผ่านคำแนะนำ โปรโมชั่น และโฆษณาที่ตรงเป้าหมายยิ่งขึ้น
ลูกค้าดูเหมือนจะเห็นด้วย: การทดลองได้แปลงเป็นสัญญาสำหรับบริษัทสื่อทุกแห่งที่ Vilynx เคยร่วมงานด้วย Klein กล่าว
“ทุกคนตื่นเต้นกับความเป็นไปได้มาก” เขากล่าว “มีคนฉลาดมากมายในเครือข่ายเหล่านี้ และกลุ่มเทคโนโลยีต่างก็พยายามอย่างมากที่จะเข้าสู่ AI”