พนักงาน OpenAI เตือนถึงอันตรายจาก AI ขั้นสูง

พนักงานและอดีตพนักงาน Open AI และ Deep Mind ห่วงอนตรายจาก AI ขั้นสูง
พนักงานและอดีตพนักงาน Open AI และ Deep Mind ห่วงอนตรายจาก AI ขั้นสูง

พนักงานปัจจุบันและอดีตหลายคนของ OpenAI และ Google DeepMind ได้ แบ่งปันจดหมายเปิดผนึกถึงอันตรายของ AI ขั้นสูง และ การขาดการควบคุมดูแล ของบริษัทที่ทำงานเกี่ยวกับ เทคโนโลยี AI ในปัจจุบัน พร้อมเรียกร้องให้เพิ่มความโปร่งใส และ การคุ้มครองผู้แจ้งเบาะแสในอุตสาหกรรม

โดยมีคำแนะนำว่า มีความเสี่ยงหลายประการ ที่เรากำลังเผชิญ จากการพัฒนา AI รวมถึง การยึดมั่นในความไม่เท่าเทียมที่มีอยู่ การบิดเบือน และ ข้อมูลที่ไม่ถูกต้อง และ การสูญเสียการควบคุมระบบ AI อัตโนมัติ 

ซึ่งจดหมายดังกล่าว อาจนำไปสู่การสูญพันธุ์ของมนุษย์

บริษัท AI มี “แรงจูงใจทางการเงินที่แข็งแกร่ง” เพื่อก้าวไปข้างหน้าด้วยการพัฒนา และ เพื่อหลีกเลี่ยง การแบ่งปันข้อมูลเกี่ยวกับมาตรการป้องกัน และ ระดับความเสี่ยงของพวกเขา

 “เราไม่คิดว่า พวกเขาทุกคน สามารถพึ่งพาได้ เพื่อแบ่งปันสิ่งนี้โดยสมัครใจ” จดหมายระบุว่าจากพนักงานในปัจจุบัน และ อดีตพนักงาน

พนักงานทั้งหมด 13 คนลงนาม ในจดหมาย ซึ่งรวมถึงอดีตพนักงาน 7 คน , พนักงาน ในปัจจุบัน 4 คน , อดีตพนักงาน Google DeepMind 1 คน และ พนักงาน Google DeepMind ในปัจจุบัน จำนวน 1 คน

ขณะที่ OpenAI ได้ข่มขู่พนักงานทำให้ไม่มีอิสระในการพูด และ ทำให้พวกเขาลงนามในข้อตกลง NDA ที่เข้มงวด เพื่อปิดปากคำวิพากษ์วิจารณ์

จดหมายดังกล่าวเกิดขึ้นเมื่อ Apple เตรียมประกาศฟีเจอร์ที่ขับเคลื่อนด้วย AI หลายอย่างสำหรับ iOS 18 และ การอัปเดตซอฟต์แวร์อื่น ๆ 

ทาง Apple กำลังทำงานเกี่ยวกับฟังก์ชัน AI ของตัวเอง ที่จะรวมเข้ากับแอปต่าง ๆ ทั่วทั้งระบบปฏิบัติการ และ ยังได้ลงนามข้อตกลง กับ โอเพ่น เอไอ เพื่อรวมฟีเจอร์ ChatGPT เข้ากับ ‌iOS 18‌ ด้วย

“ตราบเท่าที่ไม่มีการกำกับดูแล โดยรัฐบาลที่มีประสิทธิผล สำหรับบริษัทเหล่านี้ พนักงาน ทั้งในปัจจุบัน และ อดีต ก็เป็นหนึ่งในไม่กี่คน ที่สามารถ ทำให้พวกเขารับผิดชอบต่อสาธารณะได้” จดหมายระบุ “แต่ข้อตกลง การรักษาความลับ ในวงกว้างขัดขวางเรา ไม่ให้แสดงข้อกังวลของเรา ยกเว้นบริษัท ที่อาจไม่สามารถแก้ไขปัญหาเหล่านี้ได้”

ในที่สุดพนักงาน ก็เรียกร้องให้บริษัท AI ให้ความคุ้มครองผู้แจ้งเบาะแสที่แข็งแกร่ง สำหรับการพูดถึงความเสี่ยงของ AI

  • หลีกเลี่ยงการสร้าง หรือ บังคับใช้ข้อตกลงที่ป้องกันการวิพากษ์วิจารณ์ข้อกังวลที่เกี่ยวข้องกับความเสี่ยง
  • เสนอกระบวนการ ที่ไม่เปิดเผยตัวตนที่ตรวจสอบได้สำหรับพนักงาน เพื่อแจ้งข้อกังวล ที่เกี่ยวข้องกับ ความเสี่ยงต่อคณะกรรมการ หน่วยงานกำกับดูแล และ องค์กรอิสระที่มีความเชี่ยวชาญที่เกี่ยวข้อง
  • สนับสนุนวัฒนธรรม ของการวิพากษ์วิจารณ์ อย่างเปิดเผยเ พื่อให้พนักงานสามารถแจ้งข้อกังวล ที่เกี่ยวข้องกับความเสี่ยงเกี่ยว กับเทคโนโลยีต่อสาธารณะ คณะกรรมการ หน่วยงานกำกับดูแล และ อื่นๆ ตราบใดที่ความลับทางการค้าได้รับการคุ้มครอง
  • หลีกเลี่ยงการตอบโต้พนักงานที่เปิดเผยข้อมูลที่เป็นความลับเกี่ยว กับความเสี่ยงต่อสาธารณะ หลังจากที่กระบวนการอื่นล้มเหลว

โอเพ่น เอไอ ประกาศเมื่อสัปดาห์ที่แล้วว่ากำลังจัดตั้งคณะทำงานเพื่อความปลอดภัย ให้คำแนะนำ ต่อคณะกรรมการเกี่ยวกับ “การตัดสินใจด้านความปลอดภัย และ ความมั่นคงที่สำคัญ” นำโดย CEOSam Altman

“ภูมิใจในประวัติของเราในการนำเสนอระบบ AI ที่มีความสามารถ และ ปลอดภัยที่สุด และ เชื่อมั่นในแนวทางทางวิทยาศาสตร์ของเราในการจัดการกับความเสี่ยง” โฆษกของบริษัทดังกล่าว บอกกับ The Hill ในแถลงการณ์ผ่าน ทางอีเมล

“เราเห็นพ้องกันว่าการถกเถียงอย่างเข้มงวดเป็นสิ่งสำคัญเมื่อคำนึงถึงความสำคัญของเทคโนโลยีนี้ และเราจะยังคงมีส่วนร่วมกับรัฐบาล ภาคประชาสังคม และชุมชนอื่นๆ ทั่วโลกต่อไป” โฆษกกล่าวต่อ

https://www.macrumors.com/2024/06/04/openai-employee-letter

https://thehill.com/policy/technology/4703216-ai-whistleblowers-letter-transparency-protection

https://thejournalistclub.com/gpt-4o-openai-spring-update/260505