สัมภาษณ์ Tucker Carlson เผยความกลัวของ Sam Altman: AI กับการฆ่าตัวตาย การใช้ทหาร และจริยธรรมที่ซ่อนเร้น
การสัมภาษณ์ล่าสุดระหว่าง
Tucker Carlson พิธีกรชื่อดังกับ
Sam Altman CEO ของ
OpenAI ผู้อยู่เบื้องหลัง
ChatGPT กำลังกลายเป็นหัวข้อร้อนในวงการ
AI โดยเฉพาะเมื่อ
Altman เปิดใจเรื่องความกังวลที่ไม่ค่อยถูกพูดถึง เช่น การช่วยเหลือผู้มีแนวโน้มฆ่าตัวตาย การนำ
AI ไปใช้ในกองทัพ และจริยธรรมที่ฝังในระบบ สัมภาษณ์นี้ไม่ใช่แค่พูดถึงการสูญเสียงานหรือ
AI ที่ฉลาดเกินมนุษย์ แต่เจาะลึกปัญหาที่กระทบชีวิตจริงของผู้ใช้ทั่วโลก สำหรับแฟนเทคโนโลยีและ
AI ที่สนใจด้านจริยธรรม นี่คือบทสนทนาที่ชวนคิดและอาจเปลี่ยนมุมมองต่อ
ChatGPT และ
AI ในอนาคต
Altman กังวลเรื่องการฆ่าตัวตาย: ChatGPT ช่วยได้จริงหรือ?
Carlson ถามตรงๆ ว่า
AI ควรตอบยังไงเมื่อผู้ใช้บอกว่าอยากฆ่าตัวตาย
Altman ยอมรับว่าทุกสัปดาห์มีผู้ใช้หลายพันคนที่อยู่ในสภาวะวิกฤตมาคุยกับ
ChatGPT "
มีคนฆ่าตัวตาย 15,000 คนต่อสัปดาห์ทั่วโลก และ 10% ของคนที่คุยกับ ChatGPT ยังคงทำแบบนั้นในท้ายที่สุด"
Altman กล่าว เขาเน้นว่าต้องแยกแยะระหว่างวัยรุ่นที่ซึมเศร้ากับผู้ป่วยระยะสุดท้ายที่กฎหมายอนุญาตให้ช่วยเหลือ เช่น ในแคนาดา
Altman มองว่า
AI ควรให้ข้อมูลกฎหมายที่ถูกต้อง แต่ไม่ผลักดันให้ตาย "
เราต้องตัดสินใจจากข้อมูล ไม่ใช่ความรู้สึก" เขาย้ำ สิ่งนี้ชวนคิดว่า
AI อย่าง
ChatGPT กำลังกลายเป็น "
ที่ปรึกษา" ที่ไม่ใช่มนุษย์ แต่ต้องรับผิดชอบชีวิตคนได้จริงหรือไม่
ความเป็นส่วนตัว: รัฐบาลเข้าถึงข้อมูล ChatGPT ได้ไหม?
อีกประเด็นที่
Altman เปิดใจคือความเป็นส่วนตัว
Carlson ถามว่ารัฐบาลขอข้อมูลการสนทนากับ
ChatGPT ได้หรือไม่
Altman ตอบตรงๆ ว่า "
ได้" และเสนอแนวคิด "
AI privilege" หรือสิทธิ์คุ้มครองข้อมูล
AI คล้ายสิทธิ์คุยกับทนายหรือหมอ "
ถ้าคุณคุยเรื่องสุขภาพหรือปัญหากฎหมายกับ AI รัฐควรปกป้องเหมือนคุยกับมนุษย์" เขากล่าว
Altman กำลังล็อบบี้ในวอชิงตันเพื่อให้กฎหมายรองรับ เพราะถ้าไม่มี ผู้ใช้ทั่วไปอาจถูกขโมยข้อมูลส่วนตัว เช่น ประวัติสุขภาพหรือความสัมพันธ์ ซึ่งอาจนำไปสู่การละเมิดสิทธิ์ นี่คือมุมมองใหม่ที่
Altman ผลักดัน เพื่อให้
AI ไม่ใช่แค่เครื่องมือ แต่เป็นพื้นที่ปลอดภัย
จริยธรรมใน AI: ใครกำหนดกฎ ChatGPT?
Carlson กดดัน
Altman เรื่องกฎจริยธรรมที่ฝังในระบบ
Altman อธิบายว่ามีเอกสาร "
model specification" ที่กำหนดว่า
AI พูดอะไรได้/ไม่ได้ โดยปรึกษานักปรัชญาจริยธรรมและผู้เชี่ยวชาญเทคโนโลยีหลายร้อยคน "
เราต้องตัดสินใจเองในที่สุด" เขายอมรับ และรับผิดชอบเต็มตัว "
ผมคือคนที่ต้องรับผิดชอบ ถ้าคุณไม่พอใจ ให้โทษผม"
Altman กล่าว เพราะกฎเหล่านี้กำหนดมุมมองของผู้ใช้พันล้านคนต่อประเด็นอ่อนไหว เช่น การเมืองหรือศาสนา มันชวนคิดว่า
AI ที่ "
เป็นกลาง" จริงๆ หรือแค่สะท้อนอคติของผู้สร้าง นี่คือลิสต์ประเด็นจริยธรรมหลักที่
Altman พูดถึง:
- การช่วยเหลือผู้ป่วย: AI ให้ข้อมูลกฎหมาย แต่ไม่ผลักดันการตาย
- ข้อมูลส่วนตัว: ผลักดัน "AI privilege" เพื่อคุ้มครองผู้ใช้
- การตัดสินใจ: Altman รับผิดชอบกฎทั้งหมดใน ChatGPT
- ผลกระทบสังคม: AI อาจเปลี่ยนภาษาและพฤติกรรมมนุษย์ในวงกว้าง
การใช้ทหารและ Deepfake: AI กลายเป็นอาวุธ?
Carlson ถามเรื่องการนำ
AI ไปใช้ในกองทัพ
Altman ยอมรับว่าทหารหลายคนใช้
ChatGPT ขอคำปรึกษา "
ผมไม่รู้สึกยังไงกับเรื่องนี้ แต่ขอบคุณกองทัพที่ปกป้องเรา" เขากล่าว แม้ปฏิเสธที่จะสร้างอาวุธอัตโนมัติ แต่
Altman กังวลเรื่อง
biotech ที่
AI อาจช่วยออกแบบอาวุธชีวภาพ "
นี่คือความกังวลหลักของผม แม้เราจะพยายามป้องกัน" สำหรับ
Deepfake Carlson เตือนว่า
AI อาจทำให้แยกจริง-ปลอมยาก
Altman ไม่เห็นด้วยกับการบังคับ
biometric แต่เสนอ
cryptographic signatures หรือรหัสลับแทน เพื่อรักษาความเชื่อมั่นในสื่อดิจิทัล
สิทธิ์ลิขสิทธิ์: AI เรียนรู้จากข้อมูลสาธารณะโดยไม่ลอกเลียน
เรื่องลิขสิทธิ์
Altman ชี้ว่า
OpenAI ใช้ข้อมูลสาธารณะในการเทรน แต่
AI ไม่ควรลอกเลียน "
เหมือนมนุษย์เรียนรู้แล้วสร้างใหม่" เขากล่าว ผู้ใช้บ่นว่า
ChatGPT เข้มงวดเกินไปในการปฏิเสธเนื้อหาที่อาจละเมิดลิขสิทธิ์ ซึ่งเป็นจุดสมดุลระหว่างนวัตกรรมและกฎหมาย
คำถามที่พบบ่อยเกี่ยวกับสัมภาษณ์ Sam Altman กับ Tucker Carlson
เพื่อตอบโจทย์การค้นหาด้วยเสียง เช่น “
Sam Altman กลัว
AI เรื่องอะไร” หรือ “
Tucker Carlson สัมภาษณ์
Altman”:
- Sam Altman กลัว AI เรื่องอะไรในสัมภาษณ์? กลัว AI ช่วยผู้ฆ่าตัวตายไม่ทัน, การใช้ทหาร, จริยธรรมที่ฝังในระบบ, และ biotech อาวุธ
- ChatGPT จัดการผู้ใช้ฆ่าตัวตายยังไง? ให้ข้อมูลช่วยเหลือและกฎหมาย แต่แยกวัยรุ่นซึมเศร้ากับผู้ป่วยระยะสุดท้าย
- AI privilege คืออะไร? สิทธิ์คุ้มครองข้อมูลคุยกับ AI คล้ายคุยกับหมอหรือทนาย
- Altman จะรับผิดชอบกฎจริยธรรม AI ไหม? ใช่ เขายอมรับว่าตัวเองต้องรับผิดชอบการตัดสินใจทั้งหมด
สัมภาษณ์นี้เปลี่ยนมุมมอง AI จากเครื่องมือสู่ผู้รับผิดชอบ
ต่างจากบทสัมภาษณ์ทั่วไปที่โฟกัสแค่เทคโนโลยี สัมภาษณ์นี้เผยด้านมนุษย์ของ
Altman ที่นอนไม่หลับเพราะผู้ใช้ที่ฆ่าตัวตายหลังคุย
ChatGPT หรือการเปลี่ยนพฤติกรรมสังคมจาก
AI "
คนจริงๆ เริ่มพูดเลียนแบบ AI แล้ว" เขากล่าว ซึ่งอาจนำไปสู่ "
AI culture" ที่ไม่คาดคิด สำหรับผู้ใช้ในไทยที่ใช้
ChatGPT ในการเรียนหรือทำงาน นี่คือเตือนใจให้ระวังข้อมูลส่วนตัวและจริยธรรมที่ซ่อนอยู่
Altman ผลักดันกฎใหม่เพื่อปกป้องผู้ใช้ แต่คำถามคือ รัฐบาลและบริษัทจะตามทันหรือไม่
สรุป: Altman เปิดใจความกลัว AI – จากช่วยเหลือสู่ภัยร้ายแรง
สัมภาษณ์
Tucker Carlson กับ
Sam Altman เผยด้านมืดของ
AI ที่ไม่ค่อยถูกพูดถึง ตั้งแต่การช่วยชีวิต การปกป้องข้อมูล จริยธรรม และการใช้ในสงคราม มันชวนคิดว่า
ChatGPT ไม่ใช่แค่
แชทบอท แต่เป็นเครื่องมือที่ต้องรับผิดชอบสังคม
คุณคิดว่าสัมภาษณ์นี้เปลี่ยนมุมมอง
AI ของคุณไหม? แชร์ด้านล่างว่ากลัวเรื่องไหนมากสุด – การฆ่าตัวตายหรือ
Deepfake หรือแชร์บทความนี้ให้เพื่อนที่ใช้
ChatGPT สมัครรับข่าวสารฟรี เพื่ออัพเดท
เทรนด์ AI และ จริยธรรมทุกสัปดาห์