Meta ใช้ AI และ Machine Learning ปกป้องวัยรุ่นจากเนื้อหาอันตรายบนโซเชียลมีเดีย

Meta บริษัทแม่ของ Facebook และ Instagram ประกาศว่าจะจำกัดเนื้อหาสำหรับผู้ใช้วัยรุ่นบนแพลตฟอร์มทั้งสอง โดยจะเริ่มใช้มาตรการใหม่นี้ในอีกไม่กี่สัปดาห์ข้างหน้า มาตรการใหม่ของ Meta มีดังนี้
  • จัดวางบัญชีวัยรุ่นทั้งหมดไว้ในการตั้งค่าการควบคุมที่เข้มงวดที่สุด (The most restrictive control settings) โดยอัตโนมัติ บนโซเชียลเน็ตเวิร์กทั้งสองของ Meta คือ Instagram และ Facebook
  • จำกัดเงื่อนไขเพิ่มเติมในการค้นหาบน Instagram ซึ่งตามปกติ เนื้อหาที่เป็นอันตรายและเนื้อหาประเภทอื่น ๆ ที่ไม่เหมาะสมกับวัย จะไม่แนะนำแก่วัยรุ่นในฟีเจอร์ต่าง ๆ เช่น Reels และ Explore อยู่แล้ว
เนื้อหาที่วัยรุ่นจะเข้าถึงได้ยากขึ้นมีตั้งแต่การฆ่าตัวตาย การทำร้ายตัวเอง และพฤติกรรมการกินที่ผิดปกติ Meta ระบุว่า มาตรการใหม่นี้จะช่วยให้วัยรุ่นได้รับประสบการณ์บนแพลตฟอร์มที่ปลอดภัยและเหมาะสมกับวัยมากขึ้น มาตรการใหม่ของ Meta นี้ถือเป็นความเคลื่อนไหวล่าสุดของบริษัทในการตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลทั่วโลก ที่ต้องการให้โซเชียลมีเดียปกป้องเยาวชนจากเนื้อหาที่เป็นอันตราย
  • มาตรการใหม่ของ Meta ครอบคลุมเนื้อหาที่อาจเป็นอันตรายต่อวัยรุ่นในหลายรูปแบบ เช่น
    • เนื้อหาเกี่ยวกับความรุนแรง การล่วงละเมิดทางเพศ และยาเสพติด
    • เนื้อหาที่ส่งเสริมแนวคิดสุดโต่งและการเลือกปฏิบัติ
    • เนื้อหาที่หลอกลวงหรือบิดเบือนความจริง
  • Meta ระบุว่า มาตรการใหม่นี้จะใช้เทคโนโลยี AI และ Machine Learning ในการระบุเนื้อหาที่เป็นอันตรายและจำกัดการเข้าถึงของวัยรุ่น
  • มาตรการใหม่ของ Meta ได้รับการตอบรับเชิงบวกจากหลายฝ่าย โดยมองว่าเป็นมาตรการที่จะช่วยปกป้องวัยรุ่นจากเนื้อหาที่เป็นอันตราย อย่างไรก็ตาม ยังมีบางส่วนที่มองว่ามาตรการนี้อาจไม่เพียงพอในการแก้ปัญหาการเข้าถึงเนื้อหาที่เป็นอันตรายบนโซเชียลมีเดีย
สรุป มาตรการใหม่ของ Meta ในการจำกัดเนื้อหาสำหรับวัยรุ่นบน Facebook และ Instagram เป็นความเคลื่อนไหวที่สำคัญของบริษัทในการตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลทั่วโลก เพื่อปกป้องเยาวชนจากเนื้อหาที่เป็นอันตราย อย่างไรก็ตาม มาตรการนี้อาจยังไม่เพียงพอในการแก้ปัญหาการเข้าถึงเนื้อหาที่เป็นอันตรายบนโซเชียลมีเดียอย่างสมบูรณ์