نشرت OpenAI في 23 مارس تفصيلًا شاملاً لبنية السلامة التي تدعم نموذج توليد الفيديو Sora 2، حيث استعرضت نظامًا متعدد الطبقات مصممًا لمعالجة التزييف العميق والمحتوى الضار وإساءة استخدام الهوية الرقمية، وجاءت المقالة المعنية "الإبداع مع Sora بأمان" بعد حوالي ستة أشهر من إطلاق النسخة الثانية Sora 2 في سبتمبر 2025، وهي فترة شهدت جدلاً واسعًا حول قدرة المنصات على تنظيم المحتوى المنتج للذكاء الاصطناعي.
توثيق المصدر وضوابط الموافقة وتصفية المحتوى
يعتمد إطار السلامة على نظام تتبع دقيق لمصدر المحتوى، يتطلب أن يحمل كل مخرج من Sora 2 بيانات وصفية وفق معيار C2PA التشفيري، إضافة إلى علامات مائية مرئية وديناميكية وأدوات كشف داخلية قادرة على تتبع مصدر الفيديوهات وتأكيد إنتاجه عبر المنصة، وتهدف هذه الخطوة إلى تمكين المستخدمين والجهات من التحقق مما إذا كان فيديو معين قد تم إنشاؤه بواسطة منتجاتها.
وفرضت الشركة ضوابط صارمة تلزم المستخدمين بالحصول على الموافقة للملامح الشخصية قبل تحويل صورهم إلى فيديوهات، مع تطبيق رقابة أكثر صرامة على الصور التي تضم أطفالاً، وتظل ميزة الشخصية البديلة Cameo، التي تتيح للمستخدمين إنشاء شخصيات ذكاء اصطناعي قابلة لإعادة الاستخدام لأنفسهم، اختيارية تمامًا ومدعومة بالتحقق الصوتي والمرئي، مع منح المستخدم إمكانية التحكم في من يمكنه الوصول إلى ملامحهم، ويمكنهم إلغاء ذلك الوصول أو حذف أي فيديو ناتج في أي وقت، كما يُحظر إنتاج فيديوهات للشخصيات العامة عبر النصوص بشكل تلقائي.
تتم عملية تصفية المحتوى عبر مراحل ذكية ومتعددة، حيث تفحص مصنفات السلامة الأوامر النصية والصور قبل التوليد، وبعد التوليد تقوم طبقة أخرى بتحليل الإطارات والملفات الصوتية بعد الإنتاج للبحث عن أي انتهاكات للسياسة، بما في ذلك إيذاء النفس والعري والعنف والتطرف ومواد الاعتداء الجنسي على الأطفال CSAM، وتشير بيانات النظام إلى أن هذه الفلاتر تنجح في حجب ما بين 95% إلى 99% من المحتوى الإشكالي قبل أن يتمكن المستخدمون من تحميله.
حماية المراهقين ومعايير الأمان الصوتي
بالنسبة للمستخدمين دون سن 18 عامًا، فإن نموذج Sora 2 يطبق بروتوكولات حماية ومعايير إشراف أكثر صرامة، تشمل حظر المراسلات المباشرة مع البالغين ومنع ظهور ملفاتهم الشخصية كمقترحات، كما توفر أدوات الرقابة الأبوية التي يمكن الوصول إليها من خلال نظام ChatGPT من OpenAI إمكانية إدارة المحتوى وتفعيل خلاصات آمنة، كما تطبق قيودًا افتراضية على التمرير المستمر لحسابات المراهقين.
وأدى إضافة ميزة الصوت إلى Sora 2 إلى ظهور مخاطر جديدة؛ لذا استحدثت الشركة أنظمة لمسح النصوص وحظر تقليد أصوات الفنانين أو استخدام الأعمال الموسيقية المحمية دون إذن، كما وفرت إطارات قانونية للفنانين والمبدعين لتقديم طلبات الإزالة للمحتوى الذي ينتهك حقوقهم، ويحتفظ المستخدمون بالقدرة على إزالة أي محتوى منشور في أي وقت، مع إمكانية الإبلاغ الفوري عن أي سوء استخدام يطال الفيديوهات أو الشخصيات الافتراضية.
الرقابة المستمرة
يأتي هذا المنشور المتعلق بالسلامة في وقت تواجه فيه OpenAI ضغوطًا من نقابات هوليوود والجهات التنظيمية؛ فقد دعت منظمة Public Citizen الشركة في نوفمبر إلى سحب Sora 2 من الإنترنت بدعوى تهديده للنزاهة الديمقراطية، كما يواصل اتحاد SAG-AFTRA المطالبة بحماية أقوى لمظهر الفنانين، وقد اعترفت OpenAI بأن "بعض المحتوى الخادع يعتمد بشكل كبير على السياق ولا يسهل اكتشافه بواسطة المصنفات"، وأن "لا يوجد حل واحد لمسألة المصدر".
.webp)