باحثون يعملون لكشف أسرار "صندوق الذكاء الاصطناعي الأسود"
13-03-2026 11:09 PM
عمون - أفاد تقرير بريطاني جديد بأن باحثين يسعون هذه الأيام، إلى تطوير طرق جديدة تساعد على فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي قراراتها.
"الصندوق الأسود"
وأضاف التقرير أن هذه الخطوة تأتي في محاولة لكشف ما يعرف بـ"الصندوق الأسود"، الذي يصف عمل كثير من نماذج التعلم الآلي المتقدمة، والتي تقدم نتائج دقيقة دون أن يكون من السهل معرفة الأسس التي اعتمدت عليها، وفقاً لصحيفة "The Guardian".
كما أوضح التقرير أن فريقاً بحثياً في معهد ماساتشوستس للتكنولوجيا (MIT)، يعمل على تطوير تقنيات تتيح لأنظمة الذكاء الاصطناعي تفسير قراراتها بشكل أوضح، بما يسهم في تعزيز الثقة بهذه الأنظمة مع توسع استخدامها في مجالات حساسة مثل الطب والنقل والبحث العلمي.
كذلك أشارت إلى أن النهج الجديد يرتكز على نموذج يعرف باسم "عنق الزجاجة المفاهيمي"، حيث لا ينتقل النظام مباشرةً من البيانات إلى النتيجة، بل يحدد أولاً مجموعة مفاهيم أو خصائص يمكن للبشر فهمها، ثم يعتمد عليها في إصدار التنبؤات والقرارات.
الذكاء الاصطناعي والبشر (آيستوك)
دقة أكبر
يذكر أن هذا الأسلوب يسمح بربط نتائج النظام بعوامل واضحة يمكن تفسيرها، ما يساعد المستخدمين والباحثين على فهم أسباب القرارات التي يتخذها الذكاء الاصطناعي بدقة أكبر.
فيما يرى الباحثون أن هذه المقاربة قد تسهم في تطوير أنظمة ذكاء اصطناعي أكثر شفافية وموثوقية، عبر تقليل الغموض في عمل الخوارزميات.
أيضا عبر تحسين القدرة على اكتشاف الأخطاء أو التحيزات المحتملة.