『دقيقة تدقيق مع كريم』のカバーアート

دقيقة تدقيق مع كريم

دقيقة تدقيق مع كريم

著者: كريم ابوريان
無料で聴く

このコンテンツについて

قناة "دقيقة تدقيق مع كريم" هي منصة معرفية تقدم محتوى مبسطًا واحترافيًا حول مفاهيم التدقيق، إدارة المخاطر، والإصلاح الإداري، بأسلوب مختصر ومباشر لا يتجاوز عشر دقائق. تهدف القناة إلى نشر ثقافة الحوكمة والجودة في العمل الإداري، من خلال تعريف المشاهد بأهم المنهجيات والأدوات المستخدمة في تدقيق الأداء، وتحليل المخاطر، وتعزيز الفعالية المؤسسية، بما يخدم الإصلاح والتطوير في القطاعين العام والخاص.كريم ابوريان マネジメント マネジメント・リーダーシップ 経済学
エピソード
  • تدقيق تقنية المعلومات والأمن السيبراني | مراجعة الحوكمة والأداء والامتثال والبنية التحتية الرقمية | دليل لضمان استدامة الأنظمة وكفاءة الرقابة Auditing IT & Cybersecurity – Governance & Performance
    2025/06/20
    تدقيق تقنية المعلومات والأمن السيبراني | مراجعة الحوكمة والأداء والامتثال والبنية التحتية الرقمية | دليل لضمان استدامة الأنظمة وكفاءة الرقابةAuditing IT & Cybersecurity – Governance, Performance, Compliance & Infrastructure Assurance GuideAudit des Systèmes IT & Cybersécurité – Guide pour Auditer la Gouvernance, la Conformité et la Performance des Infrastructuresالوصف:في هذه الحلقة من بودكاست "دقيقة تدقيق مع كريم"، نأخذكم في جولة شاملة عبر أحد أعمدة المؤسسة الحديثة: وظيفة تقنية المعلومات والأمن السيبراني.فمع تنامي الاعتماد على التحول الرقمي، لم تعد الرقابة على الأنظمة والتطبيقات مجرد عملية تقنية، بل مسؤولية استراتيجية ترتبط ارتباطًا مباشرًا بأداء المؤسسة وسمعتها ومخاطرها التشغيلية.نغطي الجوانب الأربعة الأساسية لتدقيق IT وCyber: الحوكمة، الأداء، الامتثال، والبنية التحتية. ونوضح كيف يستطيع المدقق الداخلي التأكد من أن البنية الرقمية للمؤسسة آمنة، مستدامة، ومتوافقة مع اللوائح المحلية والدولية، وقادرة على دعم النمو والتحول الذكي بكفاءة.محاور التدقيق في تقنية المعلومات والأمن السيبراني:حوكمة التقنية والتحكم في القراراتهل يوجد إطار حوكمي معتمد يشمل الاستراتيجية الرقمية، الأمن السيبراني، والحوكمة التقنية؟ما مدى وضوح الأدوار بين أقسام تقنية المعلومات، الأمن السيبراني، والتشغيل؟هل تتم مراجعة قرارات التحول الرقمي واستثمارات التقنية ضمن لجنة عليا مختصة؟أداء خدمات تقنية المعلوماتما مؤشرات الأداء المستخدمة لتقييم سرعة الاستجابة، جودة الخدمة، ورضا المستخدمين؟هل توجد آلية لمراقبة وتعزيز أداء التطبيقات، الشبكات، ومراكز البيانات؟هل تخضع عمليات الدعم الفني ومكاتب الخدمة (IT Help Desk) لمراجعة دورية؟الامتثال الرقمي والقانونيهل تلتزم المؤسسة بإطار عمل واضح للامتثال مثل COBIT، NIST، ISO 27001؟ما مدى جاهزية المؤسسة لتدقيقات الجهات التنظيمية أو الفحص الأمني الخارجي؟هل توجد سياسات محدثة للأمن السيبراني، حماية البيانات، وإدارة الحقوق الرقمية؟البنية التحتية الرقمية واستمرارية الخدمةهل البنية التحتية (سيرفرات، شبكات، قواعد بيانات) مصممة وفقًا لمبادئ الأمان والتكرار؟ما مدى جهوزية المؤسسة للتعامل مع انقطاع الخدمات، الكوارث التقنية، أو الفشل المفاجئ؟هل تم توثيق الأصول التقنية، وضمان دورة حياة الأنظمة والتحديثات الدورية؟ضوابط الأمن السيبراني الأساسيةما الضمانات لتأمين الوصول، التحكم في الحسابات، ورصد التهديدات؟هل تُطبق المؤسسة مفهوم الدفاع المتعدد الطبقات (defense-in-depth)؟هل توجد حلول DLP، جدر نارية، أدوات SIEM لرصد وتحليل الحوادث؟مخاطر شائعة في تدقيق التقنية والأمن السيبراني:تضارب بين فرق التشغيل والتقنية يؤدي إلى تأخير في تنفيذ المشاريع أو تحديث الأنظمةضعف في مراقبة الوصول قد يؤدي إلى اختراقات داخلية أو خارجيةاعتماد بنية تحتية قديمة أو غير مدعومة مما يعرض الأنظمة للفشل أو الانكشافعدم التوافق مع متطلبات الجهات الرقابية كهيئات حماية البيانات أو المصارف المركزيةفشل في استرداد الأنظمة أو البيانات بعد انقطاع بسبب غياب خطط التعافي أو اختبارهاأسئلة يطرحها المدقق الداخلي:هل منظومة الأمن السيبراني لدينا استباقية أم تفاعلية فقط؟ما مدى كفاءة البنية التحتية التقنية في دعم متطلبات العمل الرقمية؟هل نملك رؤية واضحة ...
    続きを読む 一部表示
    8 分
  • تدقيق وظائف المؤسسة | دورة حياة نماذج الذكاء الاصطناعي: دليل لتدقيق تخصيص، إعادة تدريب، والتحكم في إصدارات النماذج Auditing Organizational Functions | AI Model Lifecycle: A Guide to Auditing
    2025/06/20
    تدقيق وظائف المؤسسة | دورة حياة نماذج الذكاء الاصطناعي: دليل لتدقيق تخصيص، إعادة تدريب، والتحكم في إصدارات النماذجAuditing Organizational Functions | AI Model Lifecycle: A Guide to Auditing the Customization, Retraining & Version Control of ModelsAudit des Fonctions Organisationnelles | Cycle de Vie des Modèles d'IA : Guide d'Audit de la Personnalisation, du Réentraînement et du Contrôle de Version des Modèlesمرحباً بكم في هذا البودكاست المتخصص من تدقيق وظائف المؤسسة. في هذه الحلقة، نتعمق في "غرفة محركات" الذكاء الاصطناعي، حيث نناقش تدقيق العمليات الفنية التي تضمن بقاء النماذج الذكية دقيقة، موثوقة، وخاضعة للرقابة: تدقيق دورة حياة نماذج الذكاء الاصطناعي (Auditing the AI Model Lifecycle).إن نموذج الذكاء الاصطناعي ليس منتجًا يُبنى مرة واحدة ويُنسى، بل هو أصل حي يتطلب إدارة مستمرة. هذا البودكاست هو دليلك العملي لتقييم الضوابط على تخصيص النماذج (Customization)، إعادة تدريبها (Retraining)، والتحكم في إصداراتها (Version Control).في هذه الحلقة، نستعرض بالتفصيل كيفية تدقيق هذه العمليات التقنية المعقدة:1. لماذا ندقق دورة حياة نماذج الذكاء الاصطناعي؟لإدارة مخاطر مثل "انحراف النموذج" (Model Drift)، حيث يتدهور أداء النموذج بمرور الوقت.لضمان إمكانية تتبع القرارات وإعادة إنتاج النتائج (Reproducibility).لتقديم تأكيدات حول أن النماذج المدمجة في عمليات الأعمال تعمل كما هو متوقع وبشكل آمن.2. تدقيق أهم العمليات والمخاطر (تدقيق MLOps):تخصيص وتطوير النماذج (Auditing Model Customization & Development):إعادة تدريب النماذج (Auditing Model Retraining):التحكم في الإصدارات (Auditing Version Control):التكامل والمراقبة (Auditing Integration and Monitoring):3. أهم الأسئلة التي يجيب عليها هذا التدقيق:هل لدينا عملية خاضعة للرقابة لتطوير وتخصيص نماذج الذكاء الاصطناعي؟كيف نضمن أن أداء نماذجنا لا يتدهور مع مرور الوقت؟هل يمكننا تتبع نتائج أي إصدار من نماذجنا وإعادة إنتاجها؟هل نماذجنا مدمجة ومراقبة بشكل صحيح في بيئة العمل؟انضم إلينا الآن لتتعلم كيف تدقق "غرفة محركات" الذكاء الاصطناعي في مؤسستك! لا تنسَ الاشتراك في القناة وتفعيل جرس التنبيهات. شارك الحلقة مع زملائك، وأخبرنا في التعليقات عن أكبر تحدٍ يواجه إدارة دورة حياة النماذج الذكية!جمعية تدقيق ومراقبة نظم المعلومات (ISACA):معهد المدققين الداخليين (The IIA):مصادر مهنية أخرى:#تدقيق_الذكاء_الاصطناعي #دورة_حياة_نماذج_AI #إدارة_عمليات_تعلم_الآلة_MLOps #حوكمة_الذكاء_الاصطناعي #التدقيق_التقنيتدقيق نماذج الذكاء الاصطناعي (Auditing AI Models)تدقيق دورة حياة الذكاء الاصطناعي (Auditing AI Lifecycle)تخصيص نماذج الذكاء الاصطناعي (AI Model Customization)إعادة تدريب النماذج (Model Retraining)التحكم في إصدارات الذكاء الاصطناعي (AI Version Control)إدارة عمليات تعلم الآلة (Machine Learning Operations - MLOps)حوكمة الذكاء الاصطناعي (AI Governance)سلامة البيانات (Data Integrity)جودة النماذج (Model Quality)انحراف النموذج (Model Drift)قابلية إعادة الإنتاج (Reproducibility)التدقيق الداخلي لتكنولوجيا المعلومات (IT Internal Audit)بودكاست (Podcast)#تدقيق_الذكاء_الاصطناعي#دورة_حياة_نماذج_AI#MLOps#حوكمة_الذكاء_الاصطناعي#الذكاء_الاصطناعي_المسؤول#التدقيق_التقني#AI_Audit#AIGovernance#ModelRiskManagement#InternalAudit
    続きを読む 一部表示
    15 分
  • تدقيق صلابة أنظمة الذكاء الاصطناعي | مراجعة الاستجابة للحوادث السيبرانية وأمن النماذج الذكية | دليل لتعزيز موثوقية AI وحمايتها من الاختراق Auditing AI Resilience & Cyber – A Guide to Securing AI
    2025/06/20
    تدقيق صلابة أنظمة الذكاء الاصطناعي | مراجعة الاستجابة للحوادث السيبرانية وأمن النماذج الذكية | دليل لتعزيز موثوقية AI وحمايتها من الاختراقAuditing AI Resilience & Cyber – A Guide to Securing AI Systems, Strengthening Incident Response & Ensuring RobustnessAudit de la Résilience de l’IA et Cybersécurité – Guide pour Sécuriser les Systèmes IA et Renforcer la Réponse aux Incidentsالوصف:في هذه الحلقة من بودكاست "دقيقة تدقيق مع كريم"، نناقش جانبًا بالغ الأهمية في تدقيق الذكاء الاصطناعي: الصلابة السيبرانية لأنظمة الذكاء الاصطناعي واستعداد المؤسسة للاستجابة لحوادث أمنية قد تستهدف النماذج الذكية والبُنى التحتية المرتبطة بها.أنظمة الذكاء الاصطناعي تختلف جذريًا عن التطبيقات التقنية التقليدية، فهي تعتمد على البيانات، التعلم، والتكيّف، ما يجعلها عرضة لهجمات جديدة مثل التسميم (data poisoning)، التلاعب في الاستدلال (adversarial input)، أو تسرب النماذج الحساسة (model leakage). ولهذا، تتطلب هذه الأنظمة ضوابط أمنية خاصة واختبارات صمود متقدمة.محاور تدقيق الصلابة السيبرانية لأنظمة الذكاء الاصطناعي:صلابة النموذج ومتانته التشغيليةهل خضعت نماذج الذكاء الاصطناعي لاختبارات ضد سيناريوهات التلاعب أو الإخلال بالاستدلال؟ما مدى وجود إجراءات لضمان أن النموذج لا ينهار أمام تغييرات بسيطة في البيانات أو مدخلات هجومية؟هل توجد آليات لاكتشاف وتحييد سلوك غير طبيعي ناتج عن قرارات الذكاء الاصطناعي في الزمن الفعلي؟أمن البيانات المستخدمة في التدريبهل تُخزن بيانات التدريب في بيئات مؤمنة ضد التعديل غير المشروع أو التسريب؟ما الضوابط التي تمنع استخدام بيانات حساسة بدون إذن أو دون إخفاء الهوية؟هل يتم توثيق مصادر البيانات وإثبات سلامتها قبل إدخالها في النماذج؟الاستجابة للحوادث التي تستهدف الذكاء الاصطناعيهل تمتد خطة الاستجابة للحوادث السيبرانية لتشمل نماذج الذكاء الاصطناعي والتطبيقات المبنية عليها؟ما مدى قدرة فرق الأمن السيبراني على رصد واستجابة سريعة لهجمات على نماذج AI؟هل توجد إجراءات لإيقاف النموذج مؤقتًا أو فصله عند الاشتباه بحدوث تلاعب أو تسريب؟حوكمة النموذج والتحكم في التعديلهل توجد صلاحيات مفصّلة لمن يُسمح لهم بتعديل النماذج أو إعادة تدريبها؟هل يتم تتبع الإصدارات، والتحقق من سلامة مخرجات كل نسخة من النموذج؟ما مدى الالتزام بممارسات التحقق (validation) والاعتماد (certification) قبل النشر؟الامتثال والمخاطر القانونيةهل تم تقييم المخاطر القانونية المرتبطة بانهيار نموذج AI في خدمات حرجة؟هل هناك شفافية في توثيق كيفية عمل النموذج لمواجهة مطالبات المساءلة؟هل تُؤخذ في الاعتبار المتطلبات التنظيمية المرتبطة بـ explainability، fairness، وnon-malicious behavior؟مخاطر شائعة في بيئات الذكاء الاصطناعي غير المؤمّنة:تعرض النموذج لتلاعب دون اكتشاف، ما يؤدي إلى قرارات خاطئة أو مضللةتسرب النموذج أو بياناته بسبب ضعف التحكم في الوصولاستغلال النموذج لإنتاج مخرجات ضارة عن قصد (مثل توليد محتوى ضار أو منحاز)فشل المؤسسة في التعامل مع حادث تقني لأن أنظمة الطوارئ لم تُصمم لتشمل الذكاء الاصطناعيفقدان الثقة التنظيمية أو القانونية بسبب ضعف الشفافية أو استجابة غير كافيةأسئلة يطرحها المدقق الداخلي:هل أنظمتنا الذكية خضعت لاختبارات صمود فعلية ضد التلاعب أو الهجمات السيبرانية؟هل توجد خطة واضحة ...
    続きを読む 一部表示
    9 分

دقيقة تدقيق مع كريمに寄せられたリスナーの声

カスタマーレビュー:以下のタブを選択することで、他のサイトのレビューをご覧になれます。