التقنية

ميتا تجدد التزامها بالذكاء الاصطناعي المسؤول وتعزز فريقها للتحكم بالمخاطر

ميتا تعمل على تطوير استراتيجيتها في مجال الذكاء الاصطناعي، حيث قامت بإعادة هيكلة فريقها المسؤول عن فهم ومنع الأضرار المرتبطة بهذه التكنولوجيا. تركز الشركة جهودها نحو تطوير الذكاء الاصطناعي التوليدي، مما دفعها إلى إجراء تغييرات في فرق الذكاء الاصطناعي الداخلية.

وفقًا لتقرير نشرته The Information، فإن معظم أعضاء فريق الذكاء الاصطناعي المسؤول قد انضموا إلى فريق الذكاء الاصطناعي التوليدي، الذي تأسس لتصنيع منتجات الذكاء الاصطناعي. وقد أشارت ميتا إلى أن باقي الأعضاء انتقلوا إلى وحدة البنية التحتية للذكاء الاصطناعي لتطوير وتشغيل الأنظمة الضرورية لبناء هذه المنتجات.

تعمل ميتا بانتظام على تعزيز مفهوم الذكاء الاصطناعي المسؤول، حيث تسعى لضمان المساءلة، الشفافية، والسلامة في تطوير واستخدام هذه التقنيات. وفي هذا السياق، يؤكد جون كارفيل، من ميتا، على تصميم الشركة للتركيز على تطوير الذكاء الاصطناعي بشكل آمن ومسؤول، مع استمرار الفريق في دعم هذه الجهود عبر مختلف أقسام الشركة.

شهد الفريق في وقت سابق من العام عملية إعادة هيكلة، حيث تحول إلى مجرد هيكل لفريق الذكاء الاصطناعي. منذ تأسيسه في عام 2019، كان الفريق يتمتع بقدر معين من الاستقلالية، لكنه كان يحتاج إلى موافقة مطولة من أصحاب المصلحة لتنفيذ مبادراته.

تأسست فرق الذكاء الاصطناعي المسؤول لحل مشكلات تدريب الذكاء الاصطناعي ومنع الأخطاء، مثل مشاكل ترجمة فيسبوك ومشاكل الخوارزميات في إنستاجرام وواتساب التي أدت إلى إنشاء محتوى متحيز أو مشكلات في الرقابة.

وتأتي هذه الخطوة في ظل سعي حكومات العالم لإنشاء قواعد وتنظيمات لتطوير الذكاء الاصطناعي. فقد أبرمت الحكومة الأمريكية اتفاقيات مع شركات الذكاء الاصطناعي، في حين دعا الرئيس بايدن لوضع قواعد لسلامة هذه التقنيات. وفي الوقت نفسه، نشر الاتحاد الأوروبي مبادئه للذكاء الاصطناعي ويعمل على إقرار قانون لتنظيم هذا المجال.