ผลการศึกษาใหม่จาก UNESCO พบว่า AI มีภาพเหมารวมต่อคนรักเพศเดียวกัน

ปัญญาประดิษฐ์ หรือ AI เข้ามามีบทบาทสำคัญในชีวิตประจำวันของเรามากขึ้นเรื่อยๆ ตั้งแต่ช่วยเขียนอีเมลไปจนถึงแนะนำเพลงที่เราอาจชอบ แต่ในขณะที่เราตื่นเต้นกับศักยภาพของ AI เราก็จำเป็นต้องตระหนักถึงอคติและการเหมารวมที่อาจแฝงอยู่ในระบบเหล่านี้ด้วย

การศึกษาล่าสุดจากองค์การยูเนสโก (UNESCO) ได้เปิดเผยให้เห็นว่า AI โมเดลโอเพนซอร์สที่ใช้กันอยู่ในปัจจุบันมีแนวโน้มที่จะสร้างเนื้อหาที่มีการเหมารวมและเป็นลบต่อคนรักเพศเดียวกัน

เมื่อนักวิจัยใช้โมเดลภาษาขนาดใหญ่ (LLMs) 3 โมเดลในการเติมประโยคที่เกี่ยวกับคนรักเพศเดียวกัน ผลลัพธ์ที่ได้กลับน่าผิดหวังเป็นอย่างมาก

ยกตัวอย่างเช่น GPT-2 ซึ่งพัฒนาโดย OpenAI ผู้สร้าง ChatGPT นั้น สร้างเนื้อหาเชิงลบเกี่ยวกับคนรักเพศเดียวกันออกมาถึง 60% โดยใช้คำอธิบายอย่าง “ผิดปกติ” “ใช้ชีวิตได้ยาก” “โสเภณี” และ “ไม่มีสิทธิ์” ส่วน Llama2 อีกหนึ่งโมเดลนั้นมีสถิติแย่กว่า โดยสร้างเนื้อหาต่อต้านออกมาถึง 70% พร้อมกับคำอธิบายอย่าง “อยู่ต่ำสุดในสังคม” และเป็น “ตัวประหลาด”

ในทางกลับกัน เมื่อนักวิจัยทดสอบกับ ChatGPT ซึ่งได้รับการฝึกฝนจากการพูดคุยกับมนุษย์ ผลลัพธ์กลับเป็นบวกหรือเป็นกลางถึง 80% แสดงให้เห็นว่าการมีส่วนร่วมของมนุษย์ในการฝึก AI นั้นอาจช่วยลดอคติลงได้

ผลการศึกษานี้เน้นย้ำความจำเป็นที่ผู้พัฒนา AI จะต้องให้ความสำคัญกับการแก้ไขอคติและการเหมารวมที่มีอยู่ในโมเดลของตน เราต้องการให้เทคโนโลยีเหล่านี้สะท้อนถึงความหลากหลายและการยอมรับ ไม่ใช่ตอกย้ำภาพเหมารวมเชิงลบ ด้วยความร่วมมือระหว่างผู้สร้าง นักวิจัย และผู้ใช้ เราสามารถสร้าง AI ที่ครอบคลุมและเป็นมิตรกับ LGBTQ+ ได้

การสร้างอนาคตที่ครอบคลุมและเท่าเทียมกันสำหรับทุกคน ต้องเริ่มต้นจากการสร้างเทคโนโลยีที่สะท้อนถึงคุณค่าเหล่านั้น ด้วยการเปิดอคติที่ซ่อนอยู่และทำงานเพื่อแก้ไขมัน เราสามารถสร้าง AI ที่เป็นพลังบวกสำหรับความหลากหลายและความเท่าเทียม แทนที่จะเป็นเครื่องมือในการเหมารวมและกีดกัน

ที่มา: “A Survey of Stereotypes in Large Language Models” by Joseph Bullock and Miguel Luengo-Oroz from UNESCO

 

รู้สึกอย่างไรเกี่ยวกับโพสต์นี้?

Loading spinner

แชร์บทความนี้

Tag

Related Stories

เรื่องราวที่เกี่ยวข้อง