نظرات نقدية

قلق الذكاء الاصطناعي برؤى غربية

لم يعد السؤال اليوم: ماذا قدّم الذكاء الاصطناعي للبشرية؟ بل: ماذا قد يأخذ منها؟

ففي الوقت الذي تتسارع فيه الخوارزميات لتعيد تشكيل الاقتصاد والسياسة والعلاقات الإنسانية، ترتفع من داخل وادي السيليكون نفسه أصوات تحذّر من مستقبلٍ قد لا تملك البشرية مفاتيحه.

المفارقة أن القلق لا يأتي من خصوم التقنية، بل من صانعيها ومموليها.

المفارقة أن القلق لا يأتي من خصوم التقنية، بل من صانعيها ومموليها.

فهل نحن أمام أعظم أداة في تاريخ الإنسان… أم أمام قوة قد تتجاوز قدرتنا على ضبطها؟

يعيش العالم تقدمًا مذهلاً في التقنية وأدواتها، وقد اختصرت هذه التقنية المسافات الزمنية والمكانية وأصبحت جُزءًا أساسيًا من الحضارة أو المدنية المعاصرة، وهذه التقنية بعموم صناعاتها تُعد من الهدايا الثمينة للبشرية، ومنها ما حققه الذكاء الاصطناعي -Artificial Intelligence- (AI) في العالم من قفزات مذهلة وفرص كثيرة، لكن الموضوع هنا ليس معنيًا بالفُرص بقدر ما يُعنى بالتحديات التي تُصاحب هذا الذكاء من خلال بعض الآراء وخصوصًا الغربية؛ حيث صرح الملياردير إيلون ماسك: «إن ChatGPT يُظهر أن الذكاء الاصطناعي قد تقدم بشكل لا يصدق، وإنه شيء يجب أن نقلق جميعًا بشأنه»[1]، وتأتي هذه التنبيهات من رواد التقنية وصُناعها والمستثمرين فيها لتمنح القارئ رؤية شاملة، فضلاً عن رؤية المستهلكين، وهو ما يلفت الانتباه إلى أهمية الاستفادة من هذه الثورة المعلوماتية وتوظيفها بالصور النظيفة مع الحذر من مخاطرها الكبيرة والتي ولَّدَت مصدر قلق لديهم.

الذكاء الاصطناعي لم يعد مجرّد أداة تقنية، بل تحوّل إلى سؤال حضاري مفتوح: من الذي يملك زمام من… الإنسان أم الآلة؟

ومن تحديات هذه التقنية وذكائها ما حدث في التاسع عشر من يوليو 2024م، حينما تعطلت في لحظة واحدة كثير من مرافق الحياة في بعض الدول مجتمعةً عندما اختل تحديث أحد البرامج للأمن السيبراني الذي توفره شركة (Crowdstrike)، وبالرغم من أنها ناتجة عن خطأ بشري إلا أن هذا الخطأ قد يتكرر ويُشكِّل حالات متوقعة من تكرار تعطل برمجيات الأمن السيبراني، ولذا فالتقنية والاعتماد عليها بإسراف تُعدُّ ذات مخاطر مفاجئة تُهدد بتحولات كبرى في الحياة العالمية القائمة عليها بمستشفياتها وشركاتها وأسواقها وصناعاتها وبنوكها ومطاراتها وغير ذلك.

يتخوف كبار الرأسماليين وصُناع التقنية من المستقبل المجهول للذكاء الاصطناعي، حيث يُشير مقال كتبه جورج سوروس -وهو الشخصية المؤثرة بالرغم مما يُذكر عنه من ممارسات غير أخلاقية في تعاملاته الرأسمالية، والذي عاش التقنية واستفاد منها- بعنوان: (هل تـنـجـو الديمقراطية من الأزمات المتعددة المتزامنة؟ Can Democracy Survive the Polycrisis) عن أزمة التقنية في هذا الزمن المتسارع والمربك ودخول عالم الذكاء الاصطناعي الذي هو من مسببات هذه الأزمة في اعتقاده[2]، وهذا مما قد يعكس أن التحديات والمخاطر في استخدام هذا الذكاء تؤثر في مطلق الفرص والإيجابيات التي يتيحها!

ومن اللافت أن جيفري هينتون استقال من Google، وهو الذي يُـعَـدُّ الأب الروحي للذكاء الاصطناعي في الشركة، حتى يتسنى له أن يتحدث بصراحة عن المخاطر التي تفرضها التكنولوجيا الجديدة، وبالتراجع عن موقفه السابق اتخذ نظرة شديدة التشاؤم للذكاء الاصطناعي قائلاً: إنه قد يُدمِّر حضارتنا![3]، فهل هينتون مهندس الذكاء الاصطناعي في Google رأى حجم المخاطر فتجنبها وأصبح مُحذِّرًا منها؟

وحسب فوكس بيزنس الأمريكية حذر هينتون كذلك من مخاطر الذكاء الاصطناعي، وعلى وجه التحديد أنظمة الأسلحة ذاتية التشغيل بالكامل، أو كما أسماها جنودَ الروبوتات القاتلة: «لقد دخلنا إلى منطقة مجهولةٍ تمامًا، نحن قادرون على بناء آلات أكثر منا قوة، لكننا لا نزال نفرض عليها سيطرتنا. ولكن ماذا لو طَوَّرنا آلات أكثر منا ذكاءً؟ سوف يستغرق الأمر بين خمسة إلى عشرين عامًا قبل أن يتفوق الذكاء الاصطناعي على الذكاء البشري»[4].

ووفقًا لنتائج الاستطلاع التي تمت مشاركتها حصريًا مع شبكة CNN قال جيمي ديمون الرئيس التنفيذي لشركة جيه بي مورغان ساكس عن التأثير الكامل الذي سيحدثه الذكاء الاصطناعي على الأعمال التجارية أو الاقتصاد أو المجتمع: «إن 42% من الرؤساء التنفيذيين الذين شملهم الاستطلاع في قمة الرؤساء التنفيذيين بجامعة ييل قالوا: إن الذكاء الاصطناعي لديه القدرة على تدمير البشرية بعد خمس إلى عشر سنوات من الآن! فهناك جهات فاعلة سيئة تستخدم الذكاء الاصطناعي، لمحاولة التسلل إلى أنظمة الشركات لسرقة الأموال، والملكية الفكرية، أو ببساطة للتسبب في التعطيل والضرر»[5].

كما وصف جيفري سونينفيلد الأستاذ في جامعة ييل النتائج بأنها: «مُظلمة ومثيرة للقلق للغاية». ووقَّع العشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وبعض المشاهير على بيان يُحذر من خطر (الانقراض) بسبب الذكاء الاصطناعي! ووفقًا لصندوق النقد الدولي فإن ما يقرب من 40% من التوظيف العالمي يمكن أن يتعطل بسبب الذكاء الاصطناعي[6].

«لقد دخلنا إلى منطقة مجهولةٍ تمامًا، نحن قادرون على بناء آلات أكثر منا قوة، لكننا لا نزال نفرض عليها سيطرتنا. ولكن ماذا لو طَوَّرنا آلات أكثر منا ذكاءً؟ سوف يستغرق الأمر بين خمسة إلى عشرين عامًا قبل أن يتفوق الذكاء الاصطناعي على الذكاء البشري»

جيفري هينتون

الخروج عن السيطرة:

صرَّح سوروس بأن الذكاء الاصطناعي لن يُمكِّن قادة تغيير العالم من تشكيله كما يريدون، وبالتالي سيفقدون السيطرة عليه، وذلك بقوله: «نحن البشر نُـعَـد مشاركين ومراقبين في العالَـم؛ حيث نعيش كمشاركين نرغب في تغيير العالَـم لصالحنا، وكمراقبين نريد فهم الواقع على حاله. يتداخل كل من هذين الهدفين مع الآخر»[7].

كما أن بيل غيتس وبالرغم من ممارساته الرأسمالية، وحديثه الإيجابي في مدونته الخاصة به حول رؤيته لمستقبل الذكاء الاصطناعي، إلا أنه حذر كثيرًا من «احتمال أن تخرج أنظمة الذكاء الاصطناعي عن السيطرة! هل يمكن لآلة أن تقرر أن البشر يشكلون تهديدًا؟»[8]. وخلال مقابلته مع شبكة (سكاي نيوز) البريطانية، علق بأن الذكاء الاصطناعي «يُستخدم في الغالب من قبل أشخاص ذوي نيات حسنة. لكن هذه التقنية يمكن أيضًا أن تُستخدم بشكل خاطئ»[9]. أما وارن بافيت فيرى أن لدى الذكاء الاصطناعي إمكانات هائلة للخير، وقد تتوسع معه أعمال الاحتيال[10].

يكمن خطر الذكاء الاصطناعي في تحوّله إلى منظومةٍ ذاتية القرار تتجاوز قدرة الإنسان على الضبط والتوجيه. فكلما اتسعت استقلالية الخوارزميات، تقلّص هامش السيطرة البشرية، وازداد احتمال أن تتطور في اتجاهاتٍ لا تعكس نوايا مصمّميها؛ نتيجة تفاعلاتها الذاتية المعقّدة.

ومن تلك الأصوات البارزة في مناقشة الذكاء الاصطناعي إيلون ماسك الرئيس التنفيذي لشركة تسلا والمالك لمنصة إكس، الذي حذر كثيرًا من التهديد الوجودي الذي تشكله أنظمة الذكاء الاصطناعي المتقدمة. واقترح أنه إذا تجاوز الذكاء الاصطناعي الذكاء البشري دون لوائح مُنظِّمة، قد يؤدي ذلك إلى سيناريوهات تتخذ الآلات قرارات تتعلق بالحياة والموت دون إشراف بشري، ومن ذلك قوله: «إن هناك إجماعًا ساحقًا على ضرورة وضع لوائح تَحكم الذكاء الاصطناعي»، وذلك عقب اجتماع ضم كبار الشخصيات في قطاع التكنولوجيا في واشنطن لمناقشة هذه القضية المهمة[11]. وخلال القمة العالمية للحكومات في دبي قال ماسك: «أحد أكبر المخاطر على مستقبل الحضارة هو الذكاء الاصطناعي»[12].

وأسهم الفيلسوف السويدي الأستاذ في جامعة أوكسفورد نيك بوستروم بشكل كبير في فهم مخاطر الذكاء الاصطناعي في كتابه (الذكاء الخارق: المسارات والمخاطر والاستراتيجيات)، خاصةً تحديات السيطرة والتوافق مع القيم الإنسانية. ولذلك فمن الضروري إعطاء الأولوية للاعتبارات الأخلاقية والحوكمة المسؤولة لضمان أن يعود الذكاء بالنفع على المجتمع ككل، مع تقليل المخاطر المحتملة إلى أدنى حد. كما أن استخدام الذكاء الاصطناعي في الأسلحة يفرض معضلات أخلاقية، ويمكن لأنظمة الأسلحة المستقلة أن تُمارس سلطة استخدام القوة القاتلة بصورةٍ مستقلة.

الذكاء الاصطناعي والقيم المجتمعية:

أعرب مفكر مؤثر هو ستيفن هوكينج أيضًا عن مخاوفه بشأن مستقبل الذكاء الاصطناعي، حيث قد تتصرف الآلات بطرق غير متوافقة مع القيم والأخلاق الإنسانية. وركزت شيري توركل عالمة الاجتماع وعلم النفس على الآثار الاجتماعية للذكاء الاصطناعي، بتسليط الضوء على كيفية تأثير الاعتماد على الذكاء الاصطناعي على العلاقات الإنسانية والتواصل؛ حيث يمكن فقدان المهارات الشخصية الأساسية، مما قد يقلل من ذكائنا العاطفي وتعاطفنا.

وما ورد سابقًا يتوافق أو يتقاطع إلى حدٍّ كبير مع  ما كتبه أستاذ نظريات الإعلام والاقتصاد الرقمي دوجلاس راشكوف Douglas Rushkoff، عن هَلْوَسة بعض تجار التقنية وتخوفاتهم عند مقابلتهم، وكيفية النجاة من مآلات كارثة كبيرة قادمة لا محالة ناتجة عن الإسراف في صناعة التقنية، وهي المخاطر التي صنعتها استثماراتهم ومشاريعهم وشركاتهم العملاقة حسب تعبيره، وبصورة أهمّ رؤية أثرياء التقنية لمستقبل العالم، وذلك في كتابه (البقاء للأكثر ثراءً – أوهام الهروب لدى مليارديرات التكنولوجيا – Survival of the Richest: Escape Fantasies of the Tech Billionaires)؛ حيث سياسات وادي السيليكون التكنولوجي وتداعياتها، ومن ذلك حسب إحدى التعريفات بالوادي والكتاب: «ذهنيّة وادي السيليكون: هذا النزوع للهروب من الواقع ومشكلاته، وترك الجميع خلفهم هو ما يسمّيه راشكوف (الذهنيّة The Mindset)، إذ إنّها سرديّة راسخة، ومهيمنة على وادي السيليكون، كما أنّها تُؤسّس بطبيعة الحال للسياسات والممارسات السائدة في عوالم التقنية، ولها تداعياتها على الاقتصاد والاجتماع والسياسة»[13].

ويؤكد كتاب راشكوف على أن التقنية المُنفلتة خطرٌ اجتماعي وأخلاقي على المجتمعات والدول، ومن ذلك ما ورد حول طرائق استخدام العلوم ومنجزاتها تجاه الغايات الاجتماعية المفيدة والعادلة؛ حيث تؤدّي هذه النزعة التقنية إلى فصل العلوم عن سياقات القيم والأخلاق، ومن ثمّ تحويلها إلى أداة للهيمنة؛ فالعلم التقني المعاصر يُعامل الإنسان كالروبوت، أو كمحض آلة مرتهنة بالجينات، ومن ثمّ تنزع الفاعلية والمسؤولية الأخلاقية عن البشر[14].

حين يدخل الذكاء الاصطناعي إلى مجال العلاقات والهوية والجسد والعدالة، فإنه لا يقدّم حلولاً تقنية فقط، بل يعيد برمجة التصورات الاجتماعية نفسها، وحينها من الروبوتات الحميمية إلى الخوارزميات المتحيزة، تتكشف أزمة تتجاوز الأداء الوظيفي إلى إعادة تعريف الإنسان داخل منظومةٍ تُختزل فيها الخبرة البشرية إلى بيانات

بل إن مؤلف الكتاب يُناقش مخاطر أخرى لهذه التقنية، بأنها أداة استعمارية لاحتلال البلدان والعقول الإنسانية، وذلك بالقول: «كما تتماثل أفكار التقدّم، والانتشار، والنطاق الشاسع التي تقوم عليها ذهنية وادي السيليكون مع أفكار الاستعمار والغزو والنمو التي سادت أوروبا في عصر التنوير؛ فالشركات الكبرى تتعامل بمنطق احتلالي استعماري، وتنظر إلى التطور التكنولوجي كأداة للربح والاستغلال، والهيمنة والنمو المتزايد»[15].

ويُكرر راشكوف نقده اللاذع لذهنية وادي السيليكون وممارسات الشركات الكبرى، التي تختزل قيمة الإنسان والإنسانية فيما يُسمى بالرقمنة والأتمتة والتكويد للإنسان أي يمكن التعامل معه كصفر أو واحد. لذا تصير (البيانات) أهمّ ممّن جُمِعت حولهم هذه البيانات! ويتماهى هذا التوجّه المُهيمن على عوالم التقنية مع النزعة الرأسمالية لتحويل كلّ شيء إلى ما يمكن بيعه وشراؤه، وتداوله في الأسواق[16]. والأخطر في هذا حسب تعبير مؤلف الكتاب أن مآلات هذه التقنية، ومنها الذكاء الاصطناعي سوف تحوّل حياتنا إلى آلة تدور حول نفس النسق، وتحجب ما عداه من خيارات وأنظمة للفكر[17].

إن أكثر ما يقلق المجتمعات هو مخاطر الذكاء الاصطناعي على القيم والأخلاق والحياة الاجتماعية والأسرية، وتأتي هذه المخاوف من بعض فئات صانعي ومصدري هذا الذكاء للعالم، ومن الأمثلة على ذلك: توفير الذكاء الاصطناعي لما يُعرف بصناعة الروبوتات الشبيهة بالبشر (Humanoids) المخصصة للمعاشرة الجنسية، لقد بلغ سوق التقنيات الجنسية 30 مليار دولار في عام 2020م، وقد ازدهر هذا السوق أكثر وفقًا للباحثة الأمريكية كيت ديفلين (Kate Devlin) في كتابها “مُثار جنسيًّا: العلوم والجنس والروبوتات” (Turned On: Science, Sex and Robots). ويرى كثير من مؤيدي فكرة الجنس مع الآلة أن هذا التوجه يسهم في معالجة غلاء المعيشة والأزمات الوجودية المتراكمة مثل الوحدة القاتلة والخيبة المزمنة من الرفقة البشرية! وللإجابة عن التساؤلات الأخلاقية المثارة تقول ديفلين: «إذا أردنا حقًا أن نبتكر نظام ذكاء اصطناعي يحاكينا، ويجارينا، ويفهمنا بصفتنا بشرًا، فلا بد لهذا النظام من استيعاب تجربتنا الجنسية، والتي تطورت عبر آلاف السنين لتصل بنا إلى ما نحن عليه اليوم»[18].

ووفقًا لما تنبأ به البروفيسور ديفيد ليفي David Levy في كتابه الشهير (الحب والجنس مع الروبوتات Love and Sex with Robots) الصادر عام 2007م، تفترض أطروحته (العلاقات الحميمة مع الشركاء الاصطناعيين Intimate Relationships With Artificial Partners) أن الروبوتات ستصبح شبيهة بالبشر في المظهر والوظيفة والشخصية؛ لدرجة أن الكثير من الناس سيقع في حبها، وممارسة الجنس معها، بل وحتى الزواج منها، حيث قال ليفي: «قد يبدو الأمر غريبًا بعض الشيء، لكنه ليس كذلك»، وقال: «الحب والجنس مع الروبوتات أمر لا مفر منه»[19]، ويُعتبر هذا التوقع مؤشرًا على أن مفهوم الأخلاق يواجه تحديًا صادمًا للبشرية في سياق الحياة الغربية والنظام الرأسمالي.

ويُبدي الناقدون -وفقًا للمنظور الأخلاقي الرأسمالي- قلقهم من أن روبوتات الحب والجنس قد تسبب ضررًا لمهنة الدعارة، والعاملين فيها، وسوقها الاقتصادي حسب الدكتورة كاتلين ريتشاردسون Kathleen Richardson المناهضة لروبوتات الجنس[20]! وهو ما يُعيد مجددًا (تعريف الأخلاقي في الحضارة الغربية).

يمثل هذا الروبوت أحد الأمثلة العديدة على التحديات الاجتماعية والأخلاقية التي يفرضها الذكاء الاصطناعي، ومن المتناولين للمسألة براين غرين Brian Green، الباحث في أخلاقيات الذكاء الاصطناعي وتبعاته الخطيرة بجامعة سانتا كلارا، الذي أشار إلى المخاطر التي تهدد «الجانب الفلسفي والديني حول تغيير هذه التكنولوجيا لمصيرنا ودورنا نحن البشر في هذا الكون»[21]. وفيما يتعلق بحجم المخاطر الأخلاقية، يختتم غرين إحدى مقالاته بقوله: «نظرًا لقوتنا التكنولوجية المتزايدة، نحتاج إلى إيلاء المزيد والمزيد من الاهتمام للأخلاقيات، إذا أردنا أن نعيش في مستقبل أفضل وليس أسوأ»[22]، ويُعدُّ هذا من مخاطر ما يُسمى الانقراض البشري، الناتج عن الاستغناء عن العلاقات البشرية لصالح الروبوتات الجنسية!

ومن المعضلات الأخلاقية ما تفعله الخوارزميات العنصرية؛ فقد أثبتت الدراسات تحيز أنظمة التعرف على الوجه ضد أصحاب البشرة الداكنة، مما يهدد العدالة الجنائية ومجالات التوظيف[23]. بالإضافة إلى ذلك، هناك توليد الصور ومقاطع الفيديو المُضلِّلة التي تصور عنفًا وفقرًا غير حقيقيين، وهو ما يثير مخاوف أخلاقية ومشاكل اجتماعية تتعلق باستغلال المشاعر والعواطف، بل وابتزاز منظم قائم عليها للحصول على مبالغ طائلة[24].

إن أكثر ما يقلق المجتمعات هو مخاطر الذكاء الاصطناعي على القيم والأخلاق والحياة الاجتماعية والأسرية، وتأتي هذه المخاوف من بعض فئات صانعي ومصدري هذا الذكاء للعالم

 الذكاء الاصطناعي ينتقد نفسه:

عند سؤال الذكاء عن نفسه وعن المخاطر المستقبلية المحتملة والتحديات والآثار الأخلاقية من أقوال وتصريحات ناقدة ومحذرة من هذا الذكاء، أجاب: إن العديد من المفكرين والعلماء الغربيين أسهموا في الخطاب حول المخاطر التي يفرضها الذكاء الاصطناعي، مؤكدين على الحاجة إلى البحث والتنظيم الدقيقين.

وعن مدى الاعتماد على نتائج الذكاء الاصطناعي في جوانب الحياة غير المادية خاصة التربوية والأخلاقية والشرعية، كان الجواب من تطبيق (Gemini) ضمن تطبيقات قوقل للذكاء الاصطناعي: «الذكاء الاصطناعي ماهر في التعرف على الأنماط والتنبؤات، لكنه لا يفهم المعنى الحقيقي للكلمات والجمل بنفس الطريقة التي يفهم بها الإنسان. هذا يعني أنه قد يرتكب أخطاء منطقية أو يقدم معلومات غير دقيقة». ويُشخِّص سوروس حقيقة هذا الذكاء وأخلاقياته مع صعوبة الحلول بقوله: «الذكاء الاصطناعي شديد البراعة في إنتاج المعلومات المُضلِّلة والأكاذيب العميقة، وسوف يشارك في الأمر عدد كبير من الجهات الخبيثة! أتمنى أن تحظى هذه القضية بالقدر الذي تستحقه من الاهتمام»[25].

وفي استطلاع أجراه المنتدى الاقتصادي العالمي World Economic Forum في يناير عام ٢٠٢٤م جاء تصنيف المعلومات الخاطئة والمضللة الناتجة عن الذكاء الاصطناعي وانتشارها كأكبر خطر عالمي يهدد البشرية في الأعوام المقبلة[26]. هذا في أمور الدنيا، فكيف هو في أمور القِيَم والدين والشرع؟!

ويُمكن التعليق على هذه الإجابات والنتائج المجتزأة بالقول: إن الاعتماد على هذا الذكاء خاصة في الجوانب التربوية والأخلاقية والمسائل الشرعية والفقهية له مخاطر؛ فالمدخلات تنعكس على المخرجات؛ حيث البيانات غير المتوازنة تخلق تحيزات في التنبؤات والنتائج، ويمكن بهذا للذكاء الاصطناعي أن ينتج نتائج مغلوطة، وفي غياب اللوائح الصارمة هناك خطر حدوث خروقات للبيانات وإساءة استخدام للمعلومات الحساسة.

في مفارقة لافتة، يُقرّ الذكاء الاصطناعي بحدوده المعرفية؛ فهو يتقن معالجة البيانات، لكنه لا يعي المعنى، ويُنتج خطابًا متماسكًا دون أن يمتلك ضميرًا يزن نتائجه. وهنا يتبيّن أن قوة الأداة لا تعني اكتمال الفهم، ولا صلاحية الحكم في كل مجال

الخلاصة:

إن هذه التقنية التي لا تحكمها ضوابط أخلاقية، أو معايير إنسانية، أو تعليمات سماوية! شأنها شأن واقع ممارسات العلم التجريبي المنفلت من الضوابط، وقد تجلب معها انحراف البشرية عن إنسانيتها، لا سيما حينما أصبحت هذه التقنية مصدر أزمات عالمية متعددة تتعلق بقضايا رئيسية للحياة البشرية، ومن ذلك تعزيز البطالة، وتغيير القيم والهويات الوطنية، واحتلال الأوطان، والعبث بالثقافات والأديان، واختراق الخصوصيات، وكشف الحسابات.

ومن قلق هذا الذكاء الاصطناعي على صانعيه بصورة خاصة، أنه سوف يسهم في كشف زيف الملل والأديان المنحرفة بما فيها اليهودية والنصرانية، كما أنه سوف يعمل على كشف حقائق السياسات العالمية وأجنداتها! ويشكل التنافس الصيني الأمريكي في تقديم خدمة الذكاء قلقًا وخطورة قد تتحول إلى صراع مفتوح وضحايا عالمية.

وفي مجال العلم والتعليم فإن هذا الذكاء سوف يُشكِّل جناية على الأجيال إن أصبحت العملية التعليمية قائمة عليه أو معتمدة على كثير منه؛ ففي كثير من الاستخدامات التعليمية تعطيل للتفكير والإبداع والابتكار والاكتشاف والإنجاز الذاتي، كما أن فيه إضعافًا للثقة بالنفس؛ فالأجيال التي لا تتعب في العلم والبحث والمعرفة لن تُبدع ولن تبتكر أو تخترع، وبالتالي لن يحس هذا الإنسان بوجوده وقيمته وإنسانيته ومواهبه، وهو ما يجعله قاصرًا أُسريًا واجتماعيًا وتنمويًا، بل ربما يصنع منه الذكاء الاصطناعي شخصًا انعزاليًا منفردًا مُستهلكًا غير منتج.

ولعل مما يعكس الوعي والمعرفة المتنامية بمخاطر هذا الذكاء ما ورد في أعمال القمة العالمية للذكاء الاصطناعي المنعقد بالرياض في 10-12 سبتمبر 2024م، تحت شعار (الذكاء الاصطناعي لخير البشرية)، وهو الشعار المهم المُعبِّر عن دور السعودية المأمول بالإسهام في تعزيز أخلاقيات الذكاء الاصطناعي في العالم، وهو يطرح التساؤل حول يقظة العالَم في المعرفة الشاملة عن هذه التقنية التي قَدَّمت خدمات كُبرى للبشرية! لكن عالَم اليوم يكتشف مؤخرًا بأنها تقنية قد لا تحكمها القوانين الأخلاقية والشرائع السماوية، أو ضوابط القِيَم الإنسانية!

ويبقى أن موضوع الذكاء الاصطناعي محل جدلٍ ونقاش رغم ثورته الهائلة المدهشة، إلا أنه يتضاءل أمام قدرة الدماغ البشري (المعجزة)؛ حيث يرى بيل غيتس عملاق التقنية أن المقارنات بين الذكاء الاصطناعي والدماغ البشري نوع من السباق الزمني في محاولات بلوغ الذكاء الاصطناعي مستوى الدماغ البشري -الذي يعمل بوتيرة الحلزون والإشارات الكهربائية السريعة- مما قد يستغرق عقدًا أو قرنًا من الزمان كاملاً للوصول إلى قدرة الدماغ البشري، حسب قوله[27].

وأقول معلقًا على هذا الكلام الذي نطق به بيل غيتس: سبحان الخالق البديع، وما أحوج البشرية إلى استيعاب المفاهيم القرآنية الكثيرة، والقراءة فيها أكثر كما في قول الله تعالى: {وَاللَّهُ خَلَقَكُمْ وَمَا تَعْمَلُونَ} [الصافات: 96].

التحدي الحقيقي لا يكمن في صناعة ذكاءٍ يتفوق على الإنسان، بل في الحفاظ على إنسانٍ لا يفقد مركزيته وسط هذا التسارع التقني. فالتقنية قد تمنحنا قدرةً أكبر على الفعل، لكنها لا تمنحنا تلقائيًا بوصلةً توجه هذا الفعل. وكلما تسارعت الأدوات، ازداد الاحتياج إلى وعيٍ أعمق يضبطها قبل أن تعيد هي تشكيل ملامح عالمنا.


د. محمد بن عبدالله السلومي

باحث في الدراسات التاريخية ودراسات العمل الخيري والقطاع الثالث


[1] (إيلون ماسك يحذر من خطر يهدد الحضارة.. “أشد من النووي”!)، موقع قناة العربية، بتاريخ 16 فبراير 2023م، الرابط التالي: https://tinyurl.com/m3r32zmm.

[2] (هل تـنـجـو الديمقراطية من الأزمات المتعددة المتزامنة؟)، جورج سوروس، ترجمة: إبراهيم محمد علي، موقع بروجيكت سنديكيت (Project Syndicate)، بتاريخ 6 يونيو 2023م، الرابط التالي: https://www.project-syndicate.org/commentary/can-democracy-survive-polycrisis-artificial-intelligence-climate-change-ukraine-war-by-george-soros-2023-06/arabic?barrier=accesspaylog

[3] المرجع السابق.

[4] (هينتون يصدر تحذيرًا آخر بشأن الذكاء الاصطناعي: العالم بحاجة إلى إيجاد طريقة للسيطرة على الذكاء الاصطناعي)، فوكس بيزنس، بتاريخ 13 مايو 2023م، الرابط التالي: https://www.foxbusiness.com/technology/hinton-issues-another-ai-warning-world-needs-way-control-artificial-intelligence

[5] (وارن بافيت يشبه الذكاء الاصطناعي بالسلاح النووي.. وينضم لقافلة المحذرين)، سي إن إن الاقتصادية، بتاريخ 7 مايو 2024م، الرابط التالي: https://tinyurl.com/369udyd4.

[6] المرجع السابق.

[7] (هل تـنـجـو الديمقراطية من الأزمات المتعددة المتزامنة؟)، مرجع سابق.

[8] (عهد جديد لقد بدأ عصر الذكاء الاصطناعي)، بيل غيتس، بتاريخ مارس 2023م، الرابط التالي:

http://www.saudix.org/billgates/.

[9] (بيل غيتس: يجب أن يستخدم الذكاء الاصطناعي أشخاص “ذوو نيات حسنة”)، صحيفة الشرق الأوسط، بتاريخ 27 يونيو 2024م، الرابط التالي: https://tinyurl.com/nhazm969.

[10] (وارن بافيت يشبه الذكاء الاصطناعي بالسلاح النووي.. وينضم لقافلة المحذرين)، سي إن إن الاقتصادية، بتاريخ 7 مايو 2024م، الرابط التالي: https://tinyurl.com/369udyd4.

[11] (إيلون ماسك يؤكد وجود “إجماع ساحق” على إخضاع الذكاء الاصطناعي للقانون)، جيمس كلايتون، بي بي سي عربية، بتاريخ 14 سبتمبر 2023م، الرابط التالي: https://www.bbc.com/arabic/articles/c6p6d68l6v6o.

[12] (إيلون ماسك يحذر من خطر يهدد الحضارة.. “أشد من النووي”!)، موقع قناة العربية، بتاريخ 16 فبراير 2023م، الرابط التالي: https://tinyurl.com/m3r32zmm.

[13] (نهاية العالم وأحلام الهروب: بماذا يُفكّر مليارديرات التكنولوجيا الفائقة؟)، أميرة عكارة، موقع حبر، بتاريخ 6 كانون الأول 2022م، الرابط التالي: https://tinyurl.com/75ev6j.

[14] المرجع السابق.

[15] المرجع السابق.

[16] المرجع السابق

[17] المرجع السابق

[18] (خوارزم للحُب: متى سنتزوج الروبوتات؟)، أشرف فقيه، موقع ثمانية، بتاريخ 29 ديسمبر 2022م، الرابط التالي: https://thmanyah.com/post/22132_1jhggnmybp.

[19] Forecast: Sex and Marriage with Robots by 2050, 12 Oct 2007: https://www.livescience.com/1951-forecast-sex-marriage-robots-2050.html?utm_source=chatgpt.com.

[20] (الروبوتات الجنسية.. ثورة تكنولوجية أم انحدار أخلاقي)، صحيفة العرب، بتاريخ 6 فبراير 2017م، الرابط التالي:

https://tinyurl.com/ysdscpb4.

[21] (المعضلة الأخلاقية للذكاء الاصطناعي)، الجزيرة نت، بتاريخ 5 نوفمبر 2018م، الرابط التالي: https://tinyurl.com/9xhsr6jj

[22]What is Technology Ethics? 2026: https://www.scu.edu/ethics/focus-areas/technology-ethics/resources/what-is-technology-ethics/.

[23] Facial Recognition Is Accurate, if You’re a White Guy, 09 Feb 2018: https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html.

[24] AI-generated ‘poverty porn’ fake images being used by aid agencies, The Guardian, 20 Oct 2025: https://www.theguardian.com/global-development/2025/oct/20/ai-generated-poverty-porn-fake-images-being-used-by-aid-agencies?utm_source=chatgpt.com.

[25] (هل تـنـجـو الديمقراطية من الأزمات المتعددة المتزامنة؟)، جورج سوروس، ترجمة: إبراهيم محمد علي، موقع بروجيكت سنديكيت (Project Syndicate)، بتاريخ 6 يونيو 2023م، الرابط التالي: https://www.project-syndicate.org/commentary/can-democracy-survive-polycrisis-artificial-intelligence-climate-change-ukraine-war-by-george-soros-2023-06/arabic?barrier=accesspaylog

[26] (المنتدى الاقتصادي العالمي: تأثير الذكاء الاصطناعي على الانتخابات يعد التهديد الأكبر عالميًا في 2024)، منصة أرقام، بتاريخ 10 يناير 2024م، الرابط التالي: https://www.argaam.com/ar/article/articledetail/id/1696981.

[27] مدونة بعنوان: (عهد جديد بدأ عصر الذكاء الاصطناعي)، بيل غيتس، بتاريخ مارس 2023م، الرابط التالي:

http://www.saudix.org/billgates/.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *