مخاطر الذكاء الاصطناعي: ما هي مخاطر الذكاء الاصطناعي؟

أخطار تكنولوجيا الذكاء الاصطناعي ، أخطار فن الذكاء الاصطناعي ، أخطار الذكاء الاصطناعي في الجيش ، أخطار الذكاء الاصطناعي
حقوق الصورة: iStock Photos
جدول المحتويات إخفاء
  1. تطبيقات تقنية الذكاء الاصطناعي
    1. # 1. الروبوتات والأتمتة
    2. # 2. الخدمات المالية
    3. # 3. الرعاىة الصحية
    4. # 4. الألعاب
    5. # 5. الأمن الإلكتروني
  2. مخاطر الذكاء الاصطناعي
    1. # 1. انتهاك الخصوصية
    2. # 2. التمييز والنضالات الاجتماعية والاقتصادية
    3. # 3. عدم اليقين الاقتصادي
    4. # 4. أخطار أمنية
    5. # 5. الآثار الأخلاقية
  3. مخاطر تقنية الذكاء الاصطناعي
  4. مخاطر الذكاء الاصطناعي في الجيش
    1. # 1. نقاط الضعف في أنظمة الذكاء الاصطناعي
    2. # 2. مخاوف أخلاقية
    3. # 3. الأسلحة المستقلة والحرب
    4. # 4. انتشار تقنية الذكاء الاصطناعي
  5. كيفية التعامل مع مخاطر تكنولوجيا الذكاء الاصطناعي في الجيش
  6. مخاطر فن الذكاء الاصطناعي
    1. مخاوف أخلاقية
    2. التحيز والتمييز
    3. انتهاك حقوق الملكية
  7. إدارة مخاطر تقنية الذكاء الاصطناعي
  8. ما هي المشاكل التي لا يستطيع الذكاء الاصطناعي حلها؟
  9. هل يستطيع الذكاء الاصطناعي السيطرة على العالم؟
  10. هل الذكاء الاصطناعي أخطر من الأسلحة النووية؟
  11. هل يمكن أن يصبح الذكاء الاصطناعي مدركًا للذات؟
  12. كيف سيؤثر الذكاء الاصطناعي على حياة الإنسان؟
  13. مقالات ذات صلة
  14. مراجع حسابات

يشير الذكاء الاصطناعي ، أو الذكاء الاصطناعي ، إلى قدرة الآلات على إظهار الذكاء ، بما في ذلك إدراك المعلومات وتوليفها واستنتاجها. إنه ينطوي على تطوير أنظمة الكمبيوتر التي يمكنها التعلم ، والعقل ، والتعميم ، والاستدلال على المعنى ، على غرار الذكاء البشري. ومع ذلك ، على الرغم من فوائد تقنية الذكاء الاصطناعي ، كانت هناك مخاوف ومخاطر كبيرة تمثلها ، كما هو الحال في القطاعين العسكري والفني.

تطبيقات تقنية الذكاء الاصطناعي

الذكاء الاصطناعي لديه مجموعة واسعة من التطبيقات في مختلف الصناعات والمجالات:

# 1. الروبوتات والأتمتة

يلعب الذكاء الاصطناعي دورًا مهمًا في أنظمة الروبوتات والأتمتة. يمكن للروبوتات ذات خوارزميات الذكاء الاصطناعي أداء مهام التصنيع والرعاية الصحية واللوجستيات والاستكشاف المعقدة. يمكنهم التكيف مع البيئات المتغيرة ، والتعلم من التجربة ، والتعاون مع البشر.

# 2. الخدمات المالية

يستخدم الذكاء الاصطناعي على نطاق واسع في الصناعة المالية لاكتشاف الاحتيال والتداول الحسابي وتسجيل الائتمان وتقييم المخاطر. يمكن لنماذج التعلم الآلي تحليل كميات هائلة من البيانات المالية لتحديد الأنماط وإجراء التنبؤات.

# 3. الرعاىة الصحية

تشمل تطبيقات الذكاء الاصطناعي في الرعاية الصحية تشخيص الأمراض وتحليل التصوير الطبي واكتشاف الأدوية والطب الشخصي ومراقبة المريض. يمكن أن يساعد الذكاء الاصطناعي في تحديد الأنماط في البيانات الطبية وتقديم رؤى لتحسين التشخيص والعلاج.

# 4. الألعاب

تعد خوارزميات الذكاء الاصطناعي ضرورية للألعاب لإنشاء شخصيات افتراضية واقعية وسلوك الخصم واتخاذ القرارات الذكية. تعمل منظمة العفو الدولية أيضًا على تحسين رسومات الألعاب ومحاكاة الفيزياء واختبار الألعاب.

# 5. الأمن الإلكتروني

يساعد الذكاء الاصطناعي في اكتشاف ومنع التهديدات السيبرانية من خلال تحليل حركة مرور الشبكة وتحديد الحالات الشاذة والتنبؤ بالهجمات المحتملة. يمكنه تعزيز أمن الأنظمة والبيانات من خلال آليات الكشف عن التهديدات والاستجابة لها.

مخاطر الذكاء الاصطناعي

يشكل الذكاء الاصطناعي (AI) عدة مخاطر على الإنسان في مواقف مختلفة ، منها:

# 1. انتهاك الخصوصية

غالبًا ما تجمع تقنيات الذكاء الاصطناعي وتحلل كميات كبيرة من البيانات الشخصية ، مما يثير مخاوف بشأن الخصوصية والأمان. قد تستغل الحكومات والشركات الخاصة أو تراقب المواطنين باستخدام تقنية الذكاء الاصطناعي ، مما يؤدي إلى انتهاكات الخصوصية والتتبع المحتمل للأفراد.

# 2. التمييز والنضالات الاجتماعية والاقتصادية

يمكن أن تؤدي خوارزميات الذكاء الاصطناعي المستخدمة في عمليات التوظيف أو اتخاذ القرارات المالية إلى التمييز. على سبيل المثال ، قد تقوم برامج التوظيف بالذكاء الاصطناعي بتصفية المرشحين بناءً على معايير متحيزة ، مع استبعاد مجموعات معينة من الأشخاص. بالإضافة إلى ذلك ، يمكن أن يؤدي تأثير الذكاء الاصطناعي على سوق العمل إلى صراعات اجتماعية واقتصادية وحرمان فردي من الوظائف.

# 3. عدم اليقين الاقتصادي

يمكن أن يؤدي التطور السريع للذكاء الاصطناعي والأتمتة إلى القضاء على الوظائف وخلق حالة من عدم اليقين الاقتصادي للأفراد والأسر. وفقًا لتقرير صادر عن Goldman Sachs ، يمكن للذكاء الاصطناعي إلغاء 300 مليون وظيفة في جميع أنحاء العالم ، بما في ذلك 19 ٪ من الوظائف الحالية في الولايات المتحدة.

# 4. أخطار أمنية

مع زيادة تعقيد تقنيات الذكاء الاصطناعي ، تزداد احتمالية المخاطر الأمنية وسوء الاستخدام. يمكن للقراصنة والجهات الفاعلة الخبيثة استغلال الذكاء الاصطناعي لتطوير هجمات إلكترونية متقدمة ، وتجاوز الإجراءات الأمنية ، واستغلال نقاط الضعف في النظام. يثير ظهور الأسلحة المستقلة التي يقودها الذكاء الاصطناعي مخاوف بشأن مخاطر الدول المارقة أو الجهات الفاعلة غير الحكومية التي تستخدم هذه التكنولوجيا دون سيطرة بشرية. يجب على الحكومات والمنظمات تطوير أفضل الممارسات واللوائح للحماية من تهديدات أمن الذكاء الاصطناعي.

# 5. الآثار الأخلاقية

لا تتخذ أنظمة الذكاء الاصطناعي قرارات تستند إلى نفس السياق العاطفي أو الاجتماعي مثل البشر. يمكن أن يؤدي عدم الفهم هذا إلى مخاطر غير متوقعة ، مثل التمييز وإساءة استخدام الخصوصية والتحيز السياسي. يمكن أن يثير التطور السريع لتكنولوجيا التعلم الآلي أيضًا مخاوف بشأن تدهور الأخلاق والمخاطر المحتملة للاعتماد المفرط على الذكاء الاصطناعي.

مخاطر تقنية الذكاء الاصطناعي

مع نمو تقنية الذكاء الاصطناعي وتصبح أكثر وضوحًا في جميع أنحاء العالم ، أثار العديد من الأفراد مخاوف بشأن المخاطر والمخاطر التي يشكلها تبني الذكاء الاصطناعي على البشر. مع كل فوائده ، لا يزال الذكاء الاصطناعي يشكل مخاطر ومخاطر مختلفة ، والتي تشمل:

  1. فقدان السيطرة: نظرًا لأن أنظمة الذكاء الاصطناعي أصبحت أكثر قدرة واندماجًا في المجتمع ، فهناك خطر فقدان السيطرة الفعلية عليها ، مما يؤدي إلى احتمال إساءة استخدامها وإساءة استخدامها.
  2. إزاحة الوظيفة: قد تؤدي قدرة الذكاء الاصطناعي على أتمتة الأعمال المنزلية المتكررة والوظائف الأخرى إلى تقليل العمالة البشرية. 
  3. تهديدات الأمن السيبراني: يمكن أن تكون تقنية الذكاء الاصطناعي عرضة للهجمات الإلكترونية ، وقد يستخدم مجرمو الإنترنت الذكاء الاصطناعي لشن هجمات أكثر تعقيدًا. أيضًا ، يمكن أن يؤدي استخدام الذكاء الاصطناعي إلى زيادة مخاطر انتهاكات البيانات والخصوصية. 
  4. مخاوف تتعلق بخصوصية البيانات: غالبًا ما تجمع الأجهزة التي تدعم الذكاء الاصطناعي معلومات شخصية مهمة ، مما يثير مخاوف بشأن الخصوصية. قد يؤدي تخزين هذه البيانات وحمايتها ومراقبتها إلى مخاطر على الأفراد والمؤسسات. 
  5. التلاعب والمعلومات الخاطئة: يمكن لأنظمة الذكاء الاصطناعي أن تنشر أخبارًا كاذبة ومعلومات مضللة ودعاية. نظرًا لأنه من الممكن إنشاء محتوى تم إنشاؤه بواسطة AI يحاكي كلام الشخص أو سلوكه.
  6. عدم وجود إمكانية تتبع تنفيذ الذكاء الاصطناعي: يمكن أن يؤدي ظهور تقنية Shadow IT إلى نقص في إمكانية التتبع والتحكم وتطبيقات الذكاء الاصطناعي غير المصرح بها ، مما يؤدي إلى زيادة المخاطر ونقاط الضعف.
  7. عدم القدرة على شرح الاختيارات التبعية: قد تتخذ أنظمة الذكاء الاصطناعي قرارات ذات عواقب وخيمة ، ولكن قد يستغرق الأمر وقتًا لفهم وشرح الأسباب الكامنة وراء تلك الاختيارات.
  8. مشاكل صحية: الاستخدام المفرط للمنصات التي تدعم الذكاء الاصطناعي ، مثل وسائل التواصل الاجتماعي ، يمكن أن يكون له آثار سلبية على الصحة العقلية ، بما في ذلك اضطرابات القلق والاكتئاب والحرمان من النوم. 
  9. الأثر البيئي: الكميات الهائلة من البيانات التي تم إنشاؤها ومعالجتها بواسطة أنظمة الذكاء الاصطناعي تساهم في الاحتباس الحراري والاضطرابات المختلفة في أنماط الطقس.
  10. انعدام الشفافية والمساءلة: تتعامل أنظمة الذكاء الاصطناعي مع كميات هائلة من البيانات ، مما يؤدي إلى تفاوتات وأخطاء قد تهدد البنية التحتية الأساسية.
  11. حرب: يمكن استخدام الذكاء الاصطناعي في الحرب من خلال تدريب الذكاء الاصطناعي لقتل أو اغتيال الأهداف ، مما يثير مخاوف أخلاقية وإنسانية.
  12. الكسل والإدمان: يمكن لتطبيقات الذكاء الاصطناعي أتمتة العديد من المهام ، مما يجعل البشر يعتمدون عليها وربما يؤدي إلى الكسل والإدمان. يمكن أن يكون لهذا آثار سلبية على الأجيال القادمة. 

مخاطر الذكاء الاصطناعي في الجيش

يمكن أن تكون مخاطر الذكاء الاصطناعي في الجيش كبيرة ولها تداعيات مختلفة. فيما يلي بعض النقاط الرئيسية التي يجب مراعاتها:

# 1. نقاط الضعف في أنظمة الذكاء الاصطناعي

تشكل أنظمة الذكاء الاصطناعي المستخدمة في الجيش مخاطر مختلفة بسبب الهجمات والتلاعب. أحد هذه الأساليب هو التسمم ، حيث يتم تغيير البيانات المستخدمة لتدريب نظام الذكاء الاصطناعي لإنتاج نتائج سيئة. يمكن أن يكون لذلك عواقب وخيمة ، مثل الخطأ في تحديد الأهداف أو تحديد المدنيين بشكل خاطئ كمقاتلين.

# 2. مخاوف أخلاقية

يثير استخدام الذكاء الاصطناعي بدرجة عسكرية أسئلة أخلاقية حول الأخطار المحتملة والتعذيب وانتهاكات حقوق الإنسان. كما أنه يثير مخاوف بشأن افتقار القيادة العسكرية إلى الفهم والمعرفة بأنظمة الذكاء الاصطناعي ، مما قد يؤدي إلى اتخاذ قرارات غير مدروسة.

# 3. الأسلحة المستقلة والحرب

غالبًا ما يتم دمج الذكاء الاصطناعي من الدرجة العسكرية في أنظمة الأسلحة المستقلة ، مثل الطائرات بدون طيار والروبوتات ، التي تعمل دون إشراف بشري. هذا يخلق شكلاً جديدًا من أشكال الحرب حيث يمكن استخدام التكنولوجيا لاكتساب ميزة تنافسية. هناك خطر حدوث سباق تسلح بين الدول للبقاء في الطليعة في تطوير ونشر أسلحة الذكاء الاصطناعي.

# 4. انتشار تقنية الذكاء الاصطناعي

تعمل الصين وروسيا ودول أخرى بنشاط على تطوير ودمج الذكاء الاصطناعي في العمليات العسكرية. يثير الانتشار المحتمل للذكاء الاصطناعي العسكري من قبل جهات فاعلة أخرى حكومية وغير حكومية مخاوف بشأن الاستقرار العالمي ومخاطر وقوع هذه التكنولوجيا في الأيدي الخطأ.

كيفية التعامل مع مخاطر تكنولوجيا الذكاء الاصطناعي في الجيش

  • إدارة البيانات وسلامتها: تنفيذ سياسات حوكمة البيانات لتحسين تكامل وتمثيل البيانات المستخدمة لأنظمة الذكاء الاصطناعي. يمكن أن يساعد ذلك في تقليل مخاطر المخاطر الناجمة عن هجمات التسمم في الجيش وضمان تعلم أنظمة الذكاء الاصطناعي بشكل صحيح.
  • الضوابط الفنية والمشاركة البشرية: ضع ضوابط تقنية وتأكد من مشاركة موظفين مدربين تدريباً جيداً في جميع مراحل دورة حياة الذكاء الاصطناعي. يتضمن ذلك تطوير أنظمة الذكاء الاصطناعي وتدريبها وتنظيمها. يجب أن يحافظ المشغلون البشريون على سيطرة إيجابية على نشر واستخدام الأنظمة العسكرية التي تدعم الذكاء الاصطناعي.
  • التعاون الدولي: السعي لمزيد من التعاون التقني ومواءمة السياسات مع الحلفاء والشركاء فيما يتعلق بتطوير وتوظيف الذكاء الاصطناعي العسكري. استكشف تدابير بناء الثقة والحد من المخاطر مع دول مثل الصين وروسيا ، التي تعمل أيضًا على تطوير الذكاء الاصطناعي العسكري.
  • توعية الجمهور والمساءلة: إجراء توعية عامة لإبلاغ أصحاب المصلحة بشأن التزام الجيش بتخفيف المخاطر الأخلاقية المرتبطة بالذكاء الاصطناعي. يمكن أن يساعد هذا في تجنب ردود الفعل العامة وقيود السياسة. تأكد من وجود مساءلة بشرية طوال دورة حياة أنظمة الذكاء الاصطناعي.

مخاطر فن الذكاء الاصطناعي

صناعة الفن هي واحدة من الصناعات التي تأثرت إلى حد كبير باستخدام الذكاء الاصطناعي. اليوم ، تطفو العديد من الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على الإنترنت ، دون أن يدركها الكثيرون. هناك العديد من المخاوف بشأن فن الذكاء الاصطناعي ، والتي يمكن تصنيفها إلى مخاوف أخلاقية ، وتحيزات محتملة ، وانتهاك لحقوق التأليف والنشر. 

مخاوف أخلاقية

يمكن استخدام الفن الناتج عن الذكاء الاصطناعي في الدعاية السياسية ونشر المعلومات المضللة ، كما يظهر في خوارزميات وسائل التواصل الاجتماعي التي تتلاعب بالرأي العام خلال انتخابات الولايات المتحدة لعام 2016 واستفتاء خروج بريطانيا من الاتحاد الأوروبي. تثير المنصات الفنية للذكاء الاصطناعي مخاوف بشأن استبدال الفنانين البشر والأرباح المحتملة من العمل غير المأجور.

التحيز والتمييز

قد يكون فن الذكاء الاصطناعي متحيزًا بسبب البيانات المدربة ، مما قد يؤدي إلى نقص تمثيل مجموعات معينة وإدامة التحيزات المجتمعية ، مما قد يؤدي إلى التهميش.

تثير منصات الذكاء الاصطناعي الفنية التي تستخدم الأعمال الفنية الحالية مخاوف بشأن انتهاك حقوق النشر إذا كان الفن الذي تم إنشاؤه مشابهًا جدًا للعمل الأصلي أو يشبه أنماط الفنانين المشهورين.

إدارة مخاطر تقنية الذكاء الاصطناعي

هناك العديد من الخطوات التي يمكن اتخاذها للتخفيف من المخاطر التي تشكلها تقنية الذكاء الاصطناعي على البشرية. يشملوا:

  • التنظيم والرقابة: يجب أن يخضع تطوير الذكاء الاصطناعي للتنظيم والرقابة لضمان تطويره بشكل آمن وأخلاقي.
  • الموازنة بين الابتكار والمسؤولية: من المهم الموازنة بين الابتكار عالي التقنية والتفكير الذي يركز على الإنسان ، مما يضمن تطوير الذكاء الاصطناعي لأغراض نبيلة ومسؤولية.
  • تنوع وجهات النظر: عند تطوير الذكاء الاصطناعي ، من الضروري البحث عن رؤى وخبرات واهتمامات من وجهات نظر متنوعة ، بما في ذلك تلك من مختلف المجالات مثل الاقتصاد والقانون والطب والفلسفة.
  • التطبيق الأخلاقي: يجب تطبيق الذكاء الاصطناعي بشكل أخلاقي ، سواء على مستوى الشركة أو في المجتمع. يتضمن ذلك مراقبة الخوارزميات وتجميع البيانات عالية الجودة وشرح نتائج خوارزميات الذكاء الاصطناعي.

ما هي المشاكل التي لا يستطيع الذكاء الاصطناعي حلها؟

حقق الذكاء الاصطناعي تطورات كبيرة وأثبتت فائدتها في مختلف القطاعات والصناعات. ومع ذلك ، هناك بعض المشكلات التي لا يمكن للذكاء الاصطناعي حلها بالكامل. يشملوا:

  • جودة البيانات: تعتمد فعالية الذكاء الاصطناعي على جودة البيانات التي يتلقاها ، حيث تعتمد دقتها وموثوقيتها على كمية ونوعية البيانات المستخدمة في التدريب والتحليل.
  • التحيز الحسابي: يمكن أن تكون خوارزميات الذكاء الاصطناعي متحيزة إذا تم تدريبها على بيانات متحيزة أو إذا كانت لديها تحيزات متأصلة. 
  • طبيعة الصندوق الأسود: غالبًا ما تعمل أنظمة الذكاء الاصطناعي كـ "صناديق سوداء" ، وبالتالي ، تفتقر إلى الشفافية والتفسير ، مما يثير مخاوف بشأن المساءلة والثقة والآثار الأخلاقية في المجالات الحرجة.
  • الافتقار إلى الإبداع: يكافح الذكاء الاصطناعي مع الإبداع والابتكار ، ويحتاج إلى مزيد من القدرة على التفكير خارج الصندوق وربط المفاهيم غير ذات الصلة ، على عكس الإبداع البشري.
  • عدم القدرة على حل المشاكل المجهولة: تحل خوارزميات الذكاء الاصطناعي المهام في مجالات محددة مسبقًا. ومن ثم ، فإنه لا يمكنه اكتشاف المشكلات غير المعروفة وعرضها بطريقة قابلة للحساب.
  • ارتفاع التكاليف: تطوير أنظمة الذكاء الاصطناعي وتنفيذها مكلف ، ويتطلب الوقت والموارد والتقنيات المتقدمة ، مما يعيق التبني على نطاق واسع في قطاعات معينة.

هل يستطيع الذكاء الاصطناعي السيطرة على العالم؟

يمكن للذكاء الاصطناعي تعطيل مختلف جوانب المجتمع ، بما في ذلك الاقتصاد والتوظيف وتوزيع الثروة. مع تقدم تقنية الذكاء الاصطناعي ، قد لا تكون هناك حاجة للعمالة البشرية للقيام بمهام معينة ، مما يؤدي إلى البطالة وعدم المساواة في الثروة. ومع ذلك ، من المهم ملاحظة أن الذكاء الاصطناعي هو أداة يمكنها تعزيز القدرات البشرية بدلاً من استبدالها بالكامل. يمكنه تحسين تجارب العملاء ، والمساعدة في اتخاذ القرار ، وتقديم رؤى قيمة.

هل الذكاء الاصطناعي أخطر من الأسلحة النووية؟

يعتقد البعض أن الذكاء الاصطناعي أكثر خطورة من الأسلحة النووية بسبب معدل التحسن الهائل. ومن ثم ، فقد دافعوا عن التنظيم والرقابة للتخفيف من المخاطر وتعزيز هيئة عامة ذات رؤية علمية لضمان تطوير آمن للذكاء الاصطناعي. كما أن الضوابط والقوانين الأفضل ضرورية أيضًا لعلاقة تكافلية مع الإنسانية.

هل يمكن أن يصبح الذكاء الاصطناعي مدركًا للذات؟

لا تزال إمكانية أن يصبح الذكاء الاصطناعي مدركًا للذات محل نقاش بين الباحثين والفلاسفة. يمكن أن يمتلك الذكاء الاصطناعي المدرك للذات ، المعروف أيضًا باسم الوعي الاصطناعي أو الذكاء الاصطناعي الواعي ، وعيًا وذكاءًا واحتياجات ورغبات وعواطف على مستوى الإنسان. ومع ذلك ، لا يمكن أن تدعم الأجهزة والخوارزميات الحالية مثل هذا الذكاء الاصطناعي. يجادل البعض بأن قدرات التعلم الذاتي والتحسين الذاتي للذكاء الاصطناعي يمكن أن تؤدي إلى الخبرة الذاتية والوعي ، ومن المحتمل أن تخلق آلات فائقة الذكاء مع تجاربها الذاتية. إن تطوير لغة أو رمز لتوفير الوعي الذاتي أو الوعي هو أمر خارج عن متناول أيدينا. على الرغم من هذه التحديات ، يعمل الباحثون في جميع أنحاء العالم على بناء ذكاء اصطناعي مدرك للذات ، والذي يمكن أن يثير أسئلة ومناقشات أخلاقية حول حقوق وحالة الذكاء الاصطناعي الواعي بذاته.

كيف سيؤثر الذكاء الاصطناعي على حياة الإنسان؟

للذكاء الاصطناعي تأثيرات إيجابية وسلبية على حياة الإنسان. لقد أحدث ثورة في الرعاية الصحية والنقل والصناعات التحويلية ، مما أتاح التشخيص الطبي والعلاج والبحث. يمكن أن يطيل عمر الإنسان ويحسن النتائج الصحية. يحرر الذكاء الاصطناعي أيضًا البشر من المهام المتكررة ، ويزيد من الإنتاجية والرضا الوظيفي. ومع ذلك ، قد يعطل حياتنا ، ويحل محل التواصل وجهاً لوجه ، ويؤدي إلى البطالة وعدم المساواة في الثروة ، ويثير مخاوف بشأن التحكم والاستخدام الأخلاقي. يعتمد مستقبل الذكاء الاصطناعي على تطويره وتنظيمه واستخدامه ، ومن الضروري مراعاة المبادئ والمبادئ التوجيهية الأخلاقية لتعظيم فوائده وتخفيف المخاطر المحتملة.

مراجع حسابات

اترك تعليق

لن يتم نشر عنوان بريدك الإلكتروني. الحقول المشار إليها إلزامية *

قد يعجبك أيضاً