هل يمكننا الوثوق بالذكاء الخارق للذكاء الاصطناعى بالمستقبل ؟

Advertisements

هل يمكننا الوثوق بالذكاء الخارق للذكاء الاصطناعى بالمستقبل ؟

 

مع التشويق والإثارة التي تأتي مع تكنولوجيا الذكاء الاصطناعي،

هناك خوف متزايد من أن نموها المتقطع سيجعل من الصعب على البشر للسيطرة في المستقبل القريب.

مثل فقدان السيطرة على آلات الذكاء الاصطناعي و هذا سيكون كارثيا.

 

وقد أظهرت الدراسات من الناحية النظرية كيف أن الذكاء الاصطناعي فائق الذكاء لن يتمكن البشر من كبح جماحه،

حيث قد نصبح أدنى من ذكاء التعلم الآلي في العقد القادم.

 

ولكن في كل هذا، ما هي قدرة الذكاء الاصطناعي فائق الذكاء؟

 

في المراحل الأولى من إنشائها، أظهر الذكاء الاصطناعي فائق الذكاء أنها يمكن أن تكون خصما جديرا للبشرية

و لكن على الرغم من لعب دور أساسي في نمو جنسنا البشري، مع عامل واحد لا يزال غير مستقر، والتطور الوجودي للذكاء الاصطناعي.

 

وحتى مع تأكيد المحللين وخبراء الذكاء الاصطناعي أن الحساب التكنولوجي التجريبي سوف يحطم الجدران على الإنسانية، فإن هذا لن يحدث قريبا.

مع انتشار تطبيقه عبر جميع الأوجه ، يمكن اكتشاف الذكاء الاصطناعي الفائق في جميع الجوانب الحسابية في عصرنا.

مع تقنيات الذكاء الاصطناعي التي صيغت لبعض الألعاب الأساسية مثل الشطرنج ، الخطر مع حل الأسئلة الرياضية شبه المستحيلة ،

وهي العمليات التي كانت سيستغرق سنوات للبشرية لتحقيقها ، يبدو أن البشرية نفسها لن يتبقى لها الكثير لتفعله يدويا.

 

الذكاء الاصطناعي طورت الآلات المتقدمة ووصلت إلى مستوى واسع جدا وتجاوزت جميع القيود المعروفة على العقل البشري.

عالم الكمبيوتر في جامعة مدريد المستقلة، مانويل ألفونسيكا، في حين سلط الضوء على ما هو الذكاء الاصطناعي فائق الذكاء

قادر على القيام به حاول الإجابة على “السؤال حول ما إذا كان يمكن السيطرة على الذكاء الفائق إذا تم إنشاؤه قديم جدا”.

وقال ” ان هذا يرجع على الاقل الى قانون اسيموف الاول للروبوتات فى عام 1940 ” .

 

يتم تعيين قانون اسيموف الأول للروبوتات تحت ثلاثة أعمدة تضع القواعد الأساسية تحت مظلة واحدة بأن الروبوت قد لا يجرح إنسانا.

نظرة على القوانين أدناه:

القانون الأول:

قد لا يكون للروبوت القدرة على التسبب في الألم أو تعريض الإنسان للأذى.

القانون الثاني:

طالما أنه لا يتعارض مع القانون الأول، يجب على الروبوت الالتزام بأي أمر يأتي من إنسان.

القانون الثالث:

طالما أنه لا يتعارض مع قوانين السحب الأولى، يجب على الروبوت حماية بقائه.

وتجدر الإشارة إلى أن هذه القوانين الثلاثة هي أكثر فلسفية من المنطقي، مع الغموض في القوانين إعادة توجيه المعنى وراء كل واحد.

ولم يتم تناول التفاصيل في القانون بشق الأنفس على الرغم من مناقشة كيفية عدم إلحاق الأذى بالإنسان.

 

والمعنى الضمني لذلك هو أن تعديلات محددة يجب أن تحدث للذكاء الاصطناعي الذكية للغاية لتوجيهها مع الفكرتين المشتركتين.

أحد الاقتراحات المحتملة للحد من خطرها هو أن يتم تحديد الروبوتات ضمن حدود معينة ،

على سبيل المثال فصل الذكاء الاصطناعي عن بعض الأجهزة التقنية لفصلها عن العالم الخارجي ،

ولكن هذا من شأنه أن يقلل سلبا من قوة الذكاء الاصطناعي المتفوقة ، مما يجعلها أقل قدرة على تلبية الاحتياجات البشرية المختلفة.

 

الفكرة الثانية تتحدث عن أن تنفيذ المبادئ الأخلاقية في الترميز من شأنه أن يساعد برنامج الذكاء الاصطناعي الفائق لتحقيق أهداف مفيدة للإنسان ،

ولكن له أيضا حدوده الخاصة أيضا حيث يتعين على المرء الاعتماد بشكل كبير على سلوك خوارزمي معين ،

والتأكد من أنه لا يمكن أن يضر أي شخص بغض النظر عن الظروف.

 

ولا يمكن أن يكفي إلا إذا تكرر السلوك الأول الذكاء الاصطناعي، بينما يجري تحليله للنية الضارة الخبيثة.

وقد تم التشكيك في هذا الإجراء  من قبل الباحثين، الذين أكدوا أن الكشف عن أن المعيار الحالي لعصرنا من الحوسبة لا يمكن التعامل مع إنشاء مثل هذه الخوارزمية.

 

مع الذكاء الخارق الرقمي الآن في كل جانب تكنولوجي من جوانب حياتنا،

ومعرفة أجهزة الكمبيوتر والآلات التي تسيطر عليها أجهزة الكمبيوتر التي تتبع رمز البرمجة الخاصة بهم،

و غني عن القول أن هذا هو الذكاء الاصطناعي مبرمجة من قبل الإنسان لإلحاق الضرر بإنسان آخر،

وسوف تفعل ذلك بالضبط حتى عندما يحاول إنسان آخر يقف في طريق الجهاز في محاولة لتحقيق الغرض منه.

مطلوب استخدام الإنترنت للذكاء الاصطناعي الخارق للعمل والاتصال بالإنترنت مطلوب ايضا لجعل الجهاز البقاء على قيد الحياة

والاتصال يجعل الذكاء الاصطناعي للوصول إلى البيانات البشرية لتمكينها من التعلم بشكل مستقل.

يمكن للآلية الفكرية ربما في المستقبل الحصول على نقطة يمكن أن تحل محل البرامج القائمة والحصول على السلطة على أي آلة على الانترنت في جميع أنحاء العالم.

 

ولكن بعد ذلك، تساءل العديد من الناس عما إذا كانت البشرية سوف تكون قادرة على صد الذكاء الاصطناعي الذكي للغاية،

وما إذا كانت لديها القدرات المطلوبة للقيام بذلك،

 

و هذا دفع مجموعة من علماء الكمبيوتر إلى تنفيذ الحسابات النظرية التي كشفت عن مدى عدم تصور الإنسانية وعدم تحقيقها للفوز في المعركة ضد الذكاء الرقمي الفائق.

 

كان مانويل سيبريان، قائد مجموعة التعبئة الرقمية في مركز البشر والآلات، حذرا من المخاطر عندما قال:

“آلة فائقة الذكاء التي تسيطر على العالم يبدو وكأنه الخيال العلمي.

و لكن هناك بالفعل الآلات التي تؤدي بعض المهام الهامة بشكل مستقل دون المبرمجين فهم كامل كيف تعلموها.

و لذلك، فإن السؤال الذي يطرح نفسه هو ما إذا كان هذا يمكن أن يصبح في مرحلة ما أمرا لا يمكن السيطرة عليه وخطرا على البشرية”.

 

ولكن المحللين يتفوهون برأيهم في قدرة الذكاء الاصطناعي الذين يتمتعون بأجهزة فائقة الذكاء على معرفة تامة بأن الآلات التي تحركها الشفرة ستعزز القدرات البشرية والفعالية،

 

ولكنها قد تعرض أيضا استقلال الإنسان وقدراته لتهديدات خطيرة.

ما هو مستقبل البشر عندما يصبح الذكاء الاصطناعي قويا جدا؟

هذا هو السؤال الذى ترك بدون إجابة ؟

 

 

Tags: , ,