Meta บริษัทแม่ของ Facebook และ Instagram ประกาศว่าจะจำกัดเนื้อหาสำหรับผู้ใช้วัยรุ่นบนแพลตฟอร์มทั้งสอง โดยจะเริ่มใช้มาตรการใหม่นี้ในอีกไม่กี่สัปดาห์ข้างหน้า
มาตรการใหม่ของ Meta มีดังนี้
- จัดวางบัญชีวัยรุ่นทั้งหมดไว้ในการตั้งค่าการควบคุมที่เข้มงวดที่สุด (The most restrictive control settings) โดยอัตโนมัติ บนโซเชียลเน็ตเวิร์กทั้งสองของ Meta คือ Instagram และ Facebook
- จำกัดเงื่อนไขเพิ่มเติมในการค้นหาบน Instagram ซึ่งตามปกติ เนื้อหาที่เป็นอันตรายและเนื้อหาประเภทอื่น ๆ ที่ไม่เหมาะสมกับวัย จะไม่แนะนำแก่วัยรุ่นในฟีเจอร์ต่าง ๆ เช่น Reels และ Explore อยู่แล้ว

เนื้อหาที่วัยรุ่นจะเข้าถึงได้ยากขึ้นมีตั้งแต่การฆ่าตัวตาย การทำร้ายตัวเอง และพฤติกรรมการกินที่ผิดปกติ
Meta ระบุว่า มาตรการใหม่นี้จะช่วยให้วัยรุ่นได้รับประสบการณ์บนแพลตฟอร์มที่ปลอดภัยและเหมาะสมกับวัยมากขึ้น
มาตรการใหม่ของ Meta นี้ถือเป็นความเคลื่อนไหวล่าสุดของบริษัทในการตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลทั่วโลก ที่ต้องการให้โซเชียลมีเดียปกป้องเยาวชนจากเนื้อหาที่เป็นอันตราย
- มาตรการใหม่ของ Meta ครอบคลุมเนื้อหาที่อาจเป็นอันตรายต่อวัยรุ่นในหลายรูปแบบ เช่น
-
- เนื้อหาเกี่ยวกับความรุนแรง การล่วงละเมิดทางเพศ และยาเสพติด
- เนื้อหาที่ส่งเสริมแนวคิดสุดโต่งและการเลือกปฏิบัติ
- เนื้อหาที่หลอกลวงหรือบิดเบือนความจริง
- Meta ระบุว่า มาตรการใหม่นี้จะใช้เทคโนโลยี AI และ Machine Learning ในการระบุเนื้อหาที่เป็นอันตรายและจำกัดการเข้าถึงของวัยรุ่น
- มาตรการใหม่ของ Meta ได้รับการตอบรับเชิงบวกจากหลายฝ่าย โดยมองว่าเป็นมาตรการที่จะช่วยปกป้องวัยรุ่นจากเนื้อหาที่เป็นอันตราย อย่างไรก็ตาม ยังมีบางส่วนที่มองว่ามาตรการนี้อาจไม่เพียงพอในการแก้ปัญหาการเข้าถึงเนื้อหาที่เป็นอันตรายบนโซเชียลมีเดีย
สรุป
มาตรการใหม่ของ Meta ในการจำกัดเนื้อหาสำหรับวัยรุ่นบน Facebook และ Instagram เป็นความเคลื่อนไหวที่สำคัญของบริษัทในการตอบสนองต่อแรงกดดันจากหน่วยงานกำกับดูแลทั่วโลก เพื่อปกป้องเยาวชนจากเนื้อหาที่เป็นอันตราย อย่างไรก็ตาม มาตรการนี้อาจยังไม่เพียงพอในการแก้ปัญหาการเข้าถึงเนื้อหาที่เป็นอันตรายบนโซเชียลมีเดียอย่างสมบูรณ์