التخطي إلى المحتوى

إعداد
لواء – دكتور/ محمد مصطفي محروس

بحث الانسان على مر التاريخ على اختراع يمكنه أن يحاكي العقل البشري في نمط تفكيره؛ فقد حاول كل من الفنانين والكتاب وصناع الأفلام ومطوري الألعاب على حد سواء إيجاد تفسير منطقي لمفهوم الذكاء الاصطناعي؛ فعلى سبيل المثال في عام 1872 تحدث “صموئيل بتلر” في روايته “إريوهون” 1872 عن الآلات والدور الكبير الذي ستلعبه في تطوير البشرية ونقل العالم الى التطور والازدهار.
وعلى مر الزمن، كان الذكاء الاصطناعي حاضراً فقط في الخيال العلمي، فتارةً ما يسلط الضوء على الفوائد المحتملة للذكاء الاصطناعي على البشرية وجوانبه الإنسانية المشرقة، وتارةً أخرى يسلط الضوء على الجوانب السلبية المتوقعة منه، ويتم تصويره على أنه العدو الشرس للبشرية الذي يعتزم اغتصاب الحضارة والسيطرة عليها.
ففي عام 2018، أصبح الذكاء الاصطناعي حقيقة لا خيال ، ولم يعد يحتل مكاناً في عالم الثقافة الشعبية فقط, لقد كانت سنة 2018 بمثابة النقلة الكبرى للذكاء الاصطناعي؛ فقد نمت هذه التكنولوجيا بشكل كبير على أرض الواقع حتى أصبحت أداة رئيسية تدخل في صلب جميع القطاعات .
ولقد خرج الذكاء الاصطناعي من مختبرات البحوث ومن صفحات روايات الخيال العلمي، ليصبح جزءاً لا يتجزأ من حياتنا اليومية، ابتداءً من مساعدتنا في التنقل في المدن وتجنب زحمة المرور، وصولاً إلى استخدام مساعدين افتراضيين لمساعدتنا في أداء المهام المختلفة, واليوم أصبح استخدامنا للذكاء الاصطناعي متأصل من أجل الصالح العام للمجتمع.
ولقد مر الذكاء الاصطناعي بمراحل عديدة منذ بداياته وحتى يومنا هذا، لذا نعرض فيما يلي فكرة عامة حول مراحل تطور الذكاء الاصطناعي عبر السنوات، وفيما يلي تلخيص لأهم هذه الأحداث:
يعود تاريخ المرّة الأولى التي ذُكرت فيها كلمة “robot” إلى عام 1921 حينما استخدمها الكاتب التشيكي كارل تشابيك في مسرحيته “روبوتات روسوم العالمية”، حيث تمّ اشتقاق الكلمة من “robota” والتي تعني العمل.
كان آلان تورنغ Alan Turing واحدًا من أهمّ المؤثرين في تطوّر الذكاء الاصطناعي، حيث نشر مقالاً عام 1951 بعنوان “آلات الحوسبة والذكاء” “Computing Machinery and Intelligence” والذي اقترح فيه لعبة المحاكاة التي أصبحت فيما بعد تعرف باسم اختبار تورنغ.
كانت ولادة الذكاء الاصطناعي بصفته علمًا حقيقيًا سنة 1956 خلال ورشة عمل صيفية حملت اسم “مشروع دارتموث البحثي حول الذكاء الاصطناعي”، والتي قام فيها جون مكارثي John McCarthy، مخترع لغة البرمجة LISP باستخدام مصطلح “Artificial Intelligence” للمرة الأولى، وكان الهدف الرئيسي من هذه الورشة البحث عن وسائل تمكن الآلة من محاكاة جوانب الذكاء البشري.
وخلال ستينات وسبعينات القرن الماضي بدأ الباحثون في مجال الذكاء الاصطناعي باستخدام الحواسيب للتعرف على الصور، ترجمة اللغات وفهم الإرشادات والتعليمات باللغة البشرية، وبدأت مجالات الذكاء الاصطناعي الفرعية بالظهور في مختلف نواحي الحياة.
وكان الإنجاز الكبير سنة 2016 حينما طورت شركة جوجل برمجية ذكاء اصطناعي تحمل اسم AlphaGo والتي تمكنت من هزيمة بطل العالم في لعبة Go اللوحية المعقدة، كان هذا الإنجاز خطوة كبيرة حقًا في مجال تعلم الآلة لأن برنامج AlphaGo تعلم قوانين اللعبة وتمكن من اللعب على مستوى خبير من تلقاء نفسه دون أي برمجة سابقة.
واستمر تطور مجالات الذكاء الاصطناعي وتطبيقاته في السنوات اللاحقة أيضًا، وتشعبت تطبيقاته في الحياة العملية، واستخدمت تقنيات الذكاء الاصطناعي في الهواتف المحمولة من خلال تطبيقات المساعدة مثل Google Assistant أو Siri وغيرها الكثير من الجوانب الأخرى.
وينقسم الذكاء الاصطناعي إلى أربعة أنواع أساسية، تشبه إلى حد كبير هرم ماسلو للاحتياجات الأساسية، حيث أن أبسط أنواع الذكاء الاصطناعي تستطيع القيام بالوظائف الأساسية فقط، في حين أن الأنواع الأكثر تقدمًا هي بمثابة كيان واع تمامًا بذاته، وبما يدور من حوله، ويشبه إلى حد كبير الوعي البشري، وهذه الأنواع الأربعة هي كما يلي:
1 – الآلات التفاعلية Reactive Machines.
2 – الذاكرة المحدودة Limited Memory.
3 – نظرية العقل Theory of Mind.
4 – الوعي الذاتي Self Aware
لقد تجاوزنا اليوم مرحلة النوع الأول من، ونحن على وشك إتقان واحتراف النوع الثاني، لكن النوعين الثالث والرابع من الذكاء الاصطناعي يتواجدان كنظرية فقط، وسيمثلان على الأغلب المرحلة المقبلة من تطور الذكاء الاصطناعي.
ولا شك في قدرة الذكاء الاصطناعي على الارتقاء بحياة البشر، واتخاذ قرارات صحيحة، وأداء بعض المهام الخطيرة، والعمل لساعات متواصلة دون الإصابة بالإرهاق، وزيادة الإنتاجية، وغير ذلك من المهام التي تساعد المجتمعات، وتتجاوز في الوقت ذاته جوانب القصور البشري.
وقد ساهمت تلك الإيجابيات في تنامي استخدامه في مختلف المجالات السياسية والعسكرية والأمنية؛ الأمر الذي تولد عنه جملة من التهديدات والمخاطر في المجالات نفسها؛ إذ يمكن استخدام الذكاء الاصطناعي لشن هجمات سيبرانية متقدمة، وابتكار أسلحة بيولوجية مستحدثة، وفبركة الفيديوهات ومقاطع الصور، واستهداف المدنيين في الصراعات المسلحة، وهو ما يتفاقم سوءاً من جراء انعدام القواعد القانونية والأخلاقية الحاكمة له.
ما يترتب من تهديدات بارزة:
يترتب على استخدام الذكاء الاصطناعي في مختلف المجالات السياسية والعسكرية والأمنية جملة من التهديدات يمكن الوقوف عليها تفصيلاً في النقاط التالية:
1 – تغيير هيكل الوظائف: يؤثر الذكاء الاصطناعي سلباً في عدد واسع من المهن والوظائف التي ينذر بنهايتها، لا سيما المهن الروتينية والخطيرة، مقابل استحداث وظائف أخرى؛ فقد تحل الآلة محل الإنسان، وهو ما يعني الاستغناء عن العاملين، وتزايد معدلات البطالة، انطلاقاً من أن الذكاء الاصطناعي يعادل أو قد يفوق الذكاء الإنساني، بيد أنه – في المقابل – قد تُستحدَث مهن جديدة مرتبطة بالذكاء الاصطناعي والثورة الصناعية الرابعة، كما سيزداد الطلب – بالتبعية – على الوظائف ذات الصلة بالبرمجة وتحليل المعلومات، فضلاً عن المهن المرتبطة بإدارة وصيانة وتجنب المخاطر، وهو ما يؤثر بشكل مباشر في هيكل القوى العاملة والإنتاجية وحراك العاملين وتدريباتهم.
2-التحيز المتأصل في بعض التطبيقات: يعتمد الذكاء الاصطناعي على البيانات التي تُقدَّم له، وتلك البيانات لا تنفصل عن معتقدات ورؤية ومنطلقات أصحابها؛ ما يعني أن الذكاء الاصطناعي قد يُكرِّس التحيزات الموجودة في العالم الحقيقي، وأن الخوارزميات المستخدَمة قد تكون متحيزة بطبيعتها؛ فقد تتسلَّل الأخطاء من خلال اختيار البيانات المتحيزة لنماذج التعلم الآلي، وكذلك التحيز والافتراضات في المنطق المدمج.
لذا تحتاج مختلف المؤسسات إلى التأكد من أن البيانات المستخدمة لإنشاء الخوارزميات الخاصة بها تتخلص من التحيز قدر الإمكان، وهو ما يعني استحالة القضاء على التحيز المتأصل في الذكاء الاصطناعي من ناحية، وضرورة المفاضلة بين إصلاح التحيز في النظام ومدى دقة الذكاء الاصطناعي مع إمكانية التضحية بالدقة لإصلاح التحيز من ناحية ثانية. ولا شك أن الفرضيات المتحيزة التي تنتج على خلفية عملية تطوير الخوارزمية، إنما تعكس عنصرية المجتمع وتحيزه ضد فئة معينة؛ لذا تزداد الحاجة إلى أنظمة عادلة قادرة على اتخاذ قرارات منصفة ومُجرَّدة من أشكال العنصرية والتحيز.
3 – تراجع الضوابط الأخلاقية: مع تزايد استخدام الأسلحة الذاتية التشغيل على نطاق دولي واسع؛ تعددت – في المقابل – الانتقادات الموجهة لها بالنظر إلى انعدام تقيدها بالضوابط الأخلاقية والقانونية الدولية؛ فلا شك في حق الإرهابيين – على سبيل – في محاكمات عادلة انطلاقاً من عالمية مبادئ حقوق الإنسان التي يتمتع بها البشر بوصفهم بشراً بصرف النظر عن طبيعة الجرم الذي ارتكبوه، بيد أن استخدام الدرونز وغيرها من أشكال الأسلحة الذاتية التشغيل لاستهدافهم، يعطي مستخدم تلك الأسلحة الحق في تصفية أرواحهم بدون سند قانوني أو محاكمة عادلة.
4 – إمكانية امتلاك الذكاء الاصطناعي الوعي الذاتي: أثيرت العديد من التخوفات خلال السنوات الأخيرة حول قدرة تطبيقات الذكاء الاصطناعي على امتلاك درجة من الوعي الذاتي. وهذه التخوفات تفاقمت مع التقارير التي كشفت في شهر يونيو الماضي عن امتلاك برنامج “لامدا”– الذي تطوره شركة جوجل، باعتباره برنامجاً للدردشة والحوار يستخدم الذكاء الاصطناعي – قدراً من الوعي الذاتي المنفصل عن قرار مُطوِّره البشري.
5 – انعدام القدرة على التمييز بين الأهداف: يعزز تراجع ضوابط تقنين استخدام الذكاء الاصطناعي في المجال العسكري من ناحية، واحتدام التنافس الدولي على تقنياته المختلفة من ناحية ثانية، المخاوف من تزايد استخدامه في الحروب والصراعات المسلحة، في ظل انعدام قدرة الذكاء الاصطناعي على مراعاة الأعراف والمواثيق الدولية والإنسانية التي تفرض التمييز بين الأهداف المدنية والعسكرية؛ ففي الوقت الذي يتمكن فيه العنصر البشري من تحديد أهدافه بما لا يخالف تلك الأعراف والمواثيق، تفشل الروبوتات المقاتِلة والأسلحة الذاتية التشغيل في استشعار الفرق بين الأهداف العسكرية والأهداف المدنية التي لا يجب المساس بها.
6 – إغفال تأثير البعد العاطفي: لا يمكن إغفال انعدم قدرة الذكاء الاصطناعي على اتخاذ قراراته باستخدام العاطفة التي لا غنى عن الانسياق وراءها في بعض الحالات، خاصةً في حالة القرارات الجماهيرية؛ فمع اتجاه عدد من صناع القرار للاعتماد على الذكاء الاصطناعي لاتخاذ قراراتهم بموضوعية وصنع سياساتهم باحترافية؛ تبرز أهمية البعد العاطفي الذي لا يمكن لصانع القرار أن يتجاهل تأثيره، لا سيما في خطاباته السياسية التي تكفل له أمننة بعض القضايا، وخلق مشاعر الخوف والتهديد في نفوس المواطنين كي يتمكن من إعمال تدابيره الأمنية التي يجابه بها تهديداً ما بطرق استثنائية. وبجانب ذلك، لا يمكن للذكاء الاصطناعي أن يبتكر حلولاً فريدة للمشكلات؛ بسبب افتقاره للإبداع؛ إذ يمكن برمجته لإنتاج أفكار “جديدة” ولكن ليس أفكاراً أصلية؛ ما يحد من قدرته على اتخاذ القرارات المبتكرة التي يحتاج لها صانع القرار في كثير من الحالات.
7 – شن هجمات سيبرانية متقدمة: لقد صممت أنظمة الأمان القائمة على الذكاء الاصطناعي للحماية من مختلف التهديدات السيبرانية، بيد أنه في اتجاه مضاد لذلك، يمكن استخدام الأنظمة نفسها من قبل القراصنة والمخترقين والأجهزة الأمنية لشن هجمات التصيد الاحتيالي، والتهديدات الآلية، والروبوتات المستخدمة في الهجمات السيبرانية، وتغيير التعليمات البرمجية القابلة للتنفيذ، والتكيف مع أنظمة التشغيل كي تتجنب الفيروسات اكتشافها، واكتشاف برامج مكافحة الفيروسات، وتطوير طرق لمهاجمة تعليماتها البرمجية، وغير ذلك، وعلى صعيد آخر، يمكن خداع الأنظمة الأمنية القائمة على الذكاء الاصطناعي؛ لأنها ليست مثالية، ويمكنها ارتكاب أخطاء لأسباب مختلفة؛ منها تسمية البيانات غير الصحيحة، أو التجهيز الزائد لبيانات التدريب؛ ما قد يتسبب في خسائر مادية فادحة.
8 – توظيف التنظيمات الإرهابية للذكاء الاصطناعي: شهدت السنوات القليلة الماضية لجوء بعض التنظيمات الإرهابية إلى تطبيقات الذكاء الاصطناعي في عملياتهم المختلفة؛ فعلى سبيل المثال، توظف بعض التنظيمات الدرونز المدعومة بتطبيقات الذكاء الاصطناعي، لشن هجماتهم على القواعد العسكرية، ومواقع تخزين النفط، والمطارات، واستهداف الدول المجاورة، وغير ذلك.
وبالتوازي مع ذلك، وظفت التنظيمات الإرهابية أيضاً “المركبات الذاتية القيادة”، لا سيما السيارات والشاحنات الصغيرة في هجماتها الإرهابية؛ حيث يستخدم الكمبيوتر المدمج في السيارة تقنيات التعلم العميق لتقليد عمليات اتخاذ القرار للسائق في التحكم في تصرفات السيارة والتوجيه والتسريع، وقد استخدمت بالفعل في هجمات دهس متعمدة في برلين في ديسمبر 2016، وفي هجوم برشلونة في أغسطس 2017، إذ تُمكِّن تلك المركبات التنظيمات الإرهابية من تنفيذ هجماتها التقليدية عن بُعد دون الحاجة إلى التضحية بأرواح أحد التابعين أو المخاطرة بالقبض عليه.
9 – تزايد إشكالية التزييف العميق: تتعدد مخاطر تقنية الخداع العميق التي يمكنها التأثير سلباً في الأمن القومي؛ فقد بات ممكناً تصميم فيديوهات تحذيرية من حرب وشيكة أو أخرى تزعم انسحاب مرشح ما من السباق الانتخابي على نحو يُخلِّف آثاراً كارثية، وهو ما دفع عضو مجلس النواب الأمريكي “ماركو روبيو” لاعتبار أن تلك التقنية تُعادل خطورة الأسلحة النووية، قائلاً “إن تهديد الولايات المتحدة الأمريكية تَطلَّب سلفاً 10 حاملات طائرات وأسلحة نووية وصواريخ بعيدة المدى. أما اليوم، فيتطلب ذلك التهديد دخول أنظمة الولايات المتحدة الإلكترونية وأنظمتها البنكية أو إنتاج فيديوهات مزيفة واقعية جداً قادرة على تدمير النظام الانتخابي وإضعاف البلاد داخلياً”.
10- تطوير وإنتاج أسلحة بيولوجية: يمكن استخدام الذكاء الاصطناعي في إنتاج وتطوير الأسلحة البيولوجية، وهو ما لفتت صحيفة “ديلي ميل” البريطانية إلى خطورته؛ إذ يمكن للخوارزميات أن تحدد أشكالاً جديدة من المضادات الحيوية والأدوية لمكافحة العدوى، ويمكن – في المقابل – التلاعب بها للبحث عن أدوية سامة لتنتج جزيئات سامة يمكن توظيفها من قبل التنظيمات الإرهابية والمختبرات البيولوجية عالمياً، لا سيما مع توافر التقنيات اللازمة لذلك وتراجع تكلفتها المادية.

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *