بعد حادث بسنت خالد.. دار الإفتاء تحرم استخدام أحد أشهر تقنيات الذكاء الاصطناعي

Uncategorized , Comments Disabled

أكدت دار الافتاء أنه لا يجوز شرعًا استخدام تقنية (DeepFake: التزييف العميق) لتَلْفِيق مقاطع مَرْئية أو مسموعة للأشخاص باستخدام الذكاء الاصطناعي.

وقالت دار الإفتاء إن هذه التقنية تستخدم للتزييف وإظهار الأشخاص وكأنهم يفعلون أو يقولون ما لم يفعلوه ولم يقولوه في الحقيقة، مؤكدة أن في ذلك “كذِبا وغشا وإخبارا بخلاف الواقع”.

 

وتابعت الدار: “الإسلام إذ حث على الابتكار والاختراع فقد جعله ليس مقصودا لذاته، بل هو وسيلة لتحقيق غرض ما لذا أحاط الإسلام الابتكاراتِ العلمية بسياجٍ أخلاقي يقوم على أساس التقويم والإصلاح وعدم إلحاق الضرر بالنفس أو الإضرار بالغير”.

 

وأشارت إلى أنه: “فمتى كان الشيء الـمخترع وسيلة لأمر مشروعٍ أخذ حكم المشروعية، ومتى كان وسيلة لأمر منهي عنه أخذ حكمه أيضا”.د

 

وأكدت أن اختلاق هذه المقاطع بهذه التقنية فيه قصد الإضرار بالغير، وهو أمر منهي عنه في حديث النبي صلى الله وعليه وآله وسلم: “لَا ضرر ولَا ضرار”، إضافة لما فيها من الترويع والتهديد لحياة الناس، والشريعة الإسلامية جعلت حفظ الحياة من مقاصدها العظيمة وضرورياتها المهمة؛ حتى بالغت في النهي عن ترويع الغير ولو بما صورته المزاح والترفيه.

 

وهو أيضا جريمة قانونية يعاقب عليها وفق القانون رقم (175) لسنة 2018، الخاص بـ”مكافحة جرائم تقنية المعلومات”، فقد جرم المشرع المصري في هذا القانون نشر المعلومات المضللة والمنحرفة، وأَودع فيه مواد تتعلق بالشق الجنائي للمحتوى المعلوماتي غير المشروع.

يذكر أن بسنت خالد فتاة كفر يعقوب من كفر الزيات بمحافظة الغربية لقت حتفها بسبب صور مفبركة صنعها لها شخصين أمرت النيابة العامة بحبسهما.

 


بحث

ADS

تابعنا

ADS