الذكاء الإصطناعي يهدد حياة البشر

الذكاء الإصطناعي يهدد حياة البشر

0 المراجعات

مع تزايد تطور الذكاء الاصطناعي وانتشاره، ترتفع الأصوات التي تحذر من المخاطر المحتملة للذكاء الاصطناعي. قال جيفري هينتون، المعروف باسم "عراب الذكاء الاصطناعي" لعمله التأسيسي في مجال التعلم الآلي والتعلم الآلي: "يمكن لهذه الأشياء أن تصبح أكثر ذكاءً منا ويمكن أن تقرر الاستيلاء عليها، وعلينا أن نقلق الآن بشأن كيفية منع حدوث ذلك". خوارزميات الشبكة العصبية.

 

 وفي عام 2023، ترك هينتون منصبه في جوجل حتى يتمكن من "الحديث عن مخاطر الذكاء الاصطناعي"، مشيرًا إلى أن جزءًا منه يندم حتى على العمل الذي بذله في حياته.

وحث مؤسس شركتي تيسلا وسبيس إكس، إيلون ماسك، إلى جانب أكثر من 1000 من قادة التكنولوجيا الآخرين، في رسالة مفتوحة عام 2023 على وقف تجارب الذكاء الاصطناعي الكبيرة، مشيرًا إلى أن التكنولوجيا يمكن أن "تشكل مخاطر عميقة على المجتمع والإنسانية".

 

ثلاث من كثير من المخاطر للذكاء الاصطناعي:

 إن الأسئلة حول من يقوم بتطوير الذكاء الاصطناعي ولأي غرض تجعل من الضروري فهم سلبياته المحتملة ، وفيما يلي نلقي نظرة فاحصة على المخاطر المحتملة للذكاء الاصطناعي ونستكشف كيفية إدارة مخاطره.

 

1. الافتقار إلى شفافية الذكاء الاصطناعي وقابلية التوضيح 

قد يكون من الصعب فهم نماذج الذكاء الاصطناعي والتعلم العميق، حتى بالنسبة لأولئك الذين يعملون مباشرة مع التكنولوجيا. ويؤدي هذا إلى الافتقار إلى الشفافية بشأن كيفية وسبب توصل الذكاء الاصطناعي إلى استنتاجاته، مما يخلق نقصًا في تفسير البيانات التي تستخدمها خوارزميات الذكاء الاصطناعي، أو لماذا قد تتخذ قرارات متحيزة أو غير آمنة. وقد أدت هذه المخاوف إلى استخدام الذكاء الاصطناعي القابل للتفسير، ولكن لا يزال هناك طريق طويل قبل أن تصبح أنظمة الذكاء الاصطناعي الشفافة ممارسة شائعة.

2. الافتقار إلى خصوصية البيانات باستخدام أدوات الذكاء الاصطناعي

إذا كنت قد جربت روبوت الدردشة المدعم بالذكاء الاصطناعي أو جربت مرشح الوجه المدعم بالذكاء الاصطناعي عبر الإنترنت، فسيتم جمع بياناتك - ولكن إلى أين تذهب وكيف يتم استخدامها؟ غالبًا ما تجمع أنظمة الذكاء الاصطناعي البيانات الشخصية لتخصيص تجارب المستخدم أو للمساعدة في تدريب نماذج الذكاء الاصطناعي التي تستخدمها (خاصة إذا كانت أداة الذكاء الاصطناعي مجانية). قد لا تعتبر البيانات آمنة حتى من المستخدمين الآخرين عند تقديمها إلى نظام الذكاء الاصطناعي، حيث أن إحدى حوادث الأخطاء التي حدثت في ChatGPT في عام 2023 "سمحت لبعض المستخدمين برؤية العناوين من سجل الدردشة لمستخدم نشط آخر". على الرغم من وجود قوانين لحماية المعلومات الشخصية في بعض الحالات في الولايات المتحدة، إلا أنه لا يوجد قانون فيدرالي واضح يحمي المواطنين من الأضرار التي يتعرض لها خصوصية البيانات والتي يتعرض لها الذكاء الاصطناعي.

3. فقدان التأثير البشري

إن الاعتماد المفرط على تكنولوجيا الذكاء الاصطناعي يمكن أن يؤدي إلى فقدان التأثير البشري – ونقص في الأداء البشري – في بعض أجزاء المجتمع. على سبيل المثال، يمكن أن يؤدي استخدام الذكاء الاصطناعي في الرعاية الصحية إلى تقليل التعاطف والتفكير البشري. وتطبيق الذكاء الاصطناعي التوليدي في المساعي الإبداعية يمكن أن يقلل من الإبداع البشري والتعبير العاطفي. إن التفاعل مع أنظمة الذكاء الاصطناعي أكثر من اللازم قد يؤدي إلى انخفاض التواصل مع الأقران والمهارات الاجتماعية. لذلك، في حين أن الذكاء الاصطناعي يمكن أن يكون مفيدًا جدًا في أتمتة المهام اليومية، إلا أن البعض يتساءل عما إذا كان قد يعيق الذكاء البشري العام وقدراته واحتياجات المجتمع.


وقال فورد: "أعتقد أنه يمكننا التحدث عن كل هذه المخاطر، وهي حقيقية للغاية". "لكن الذكاء الاصطناعي سيكون أيضًا الأداة الأكثر أهمية في مجموعة أدواتنا لحل أكبر التحديات التي نواجهها."

 

التعليقات ( 0 )
الرجاء تسجيل الدخول لتتمكن من التعليق
مقال بواسطة

المقالات

8

متابعين

0

متابعهم

2

مقالات مشابة