
تاريخ الفيزياء

علماء الفيزياء


الفيزياء الكلاسيكية

الميكانيك

الديناميكا الحرارية


الكهربائية والمغناطيسية

الكهربائية

المغناطيسية

الكهرومغناطيسية


علم البصريات

تاريخ علم البصريات

الضوء

مواضيع عامة في علم البصريات

الصوت


الفيزياء الحديثة


النظرية النسبية

النظرية النسبية الخاصة

النظرية النسبية العامة

مواضيع عامة في النظرية النسبية

ميكانيكا الكم

الفيزياء الذرية

الفيزياء الجزيئية


الفيزياء النووية

مواضيع عامة في الفيزياء النووية

النشاط الاشعاعي


فيزياء الحالة الصلبة

الموصلات

أشباه الموصلات

العوازل

مواضيع عامة في الفيزياء الصلبة

فيزياء الجوامد


الليزر

أنواع الليزر

بعض تطبيقات الليزر

مواضيع عامة في الليزر


علم الفلك

تاريخ وعلماء علم الفلك

الثقوب السوداء


المجموعة الشمسية

الشمس

كوكب عطارد

كوكب الزهرة

كوكب الأرض

كوكب المريخ

كوكب المشتري

كوكب زحل

كوكب أورانوس

كوكب نبتون

كوكب بلوتو

القمر

كواكب ومواضيع اخرى

مواضيع عامة في علم الفلك

النجوم

البلازما

الألكترونيات

خواص المادة


الطاقة البديلة

الطاقة الشمسية

مواضيع عامة في الطاقة البديلة

المد والجزر

فيزياء الجسيمات


الفيزياء والعلوم الأخرى

الفيزياء الكيميائية

الفيزياء الرياضية

الفيزياء الحيوية

الفيزياء العامة


مواضيع عامة في الفيزياء

تجارب فيزيائية

مصطلحات وتعاريف فيزيائية

وحدات القياس الفيزيائية

طرائف الفيزياء

مواضيع اخرى
أخلاقيات الروبوتات
المؤلف:
آلان وينفيلد
المصدر:
علم الروبوتات
الجزء والصفحة:
ص89
2026-01-17
14
في قصته القصيرة المشهورة التي نُشرت عام 1942 بعنوان «المراوغة»، قدَّم إسحاق أزيموف قوانينه الثلاثة الخاصة بالروبوتات؛ ومن ثَم طرح فكرة أن الروبوتات يمكنها أن تتصرف بشكل أخلاقي أو ينبغي عليها ذلك على هامش هذا الأمر، كان أزيموف أيضًا أول من ابتكر مصطلح «روبوتكس»؛ أي علم الروبوتات في( اللغة الإنجليزية.) لا شك أن قوانين الروبوتات التي وضعها أزيموف كانت أمرًا خياليا. فهو لم يتوقع جديًّا قط أن يفكر علماء الروبوتات في المستقبل في تصميم روبوتات حقيقية؛ فقد كان يدرك جيدا مدى صعوبة ذلك الأمر.
بالرغم من ذلك، أصبحت فكرته بأن الروبوتات يجب أن تكون آمنة فيما يتعلق بالقوانين الثلاثة جزءًا من نقاشات علم الروبوتات فمن الصعب مناقشة أخلاقيات الروبوتات دون الاعتراف بمساهمة أزيموف، وهو يستحق ذلك بالطبع. دعونا نذكر أنفسنا بقوانينه الثلاثة الخاصة بالروبوتات أولا: لا يجوز لروبوت إيذاء بشري أو السماح بحدوث ما قد يؤذيه من خلال عدم اتخاذ أي إجراء. ثانيا: يجب على الروبوت إطاعة أوامر البشر، إلا إذا تعارضت مع القانون الأول وثالثًا: يجب على الروبوت المحافظة على بقائه طالما لا يتعارض ذلك مع القانونين الأول أو الثاني أضاف أزيموف لاحقا قانونا رابعا، وهو: لا ينبغي لأي روبوت أن يؤذي البشرية، أو أن يسمح للبشرية بإيذاء نفسها من خلال عدم اتخاذ أي إجراء، وقد أصبح هذا القانون يُعرف باسم القانون صفر؛ لأنه يسبق القوانين الثلاثة الأولى منطقيا.
المشكلة الأساسية في قوانين الروبوتات لأزيموف، أو ما يشبهها، هي أ أنها تتطلب من الروبوت إصدار الأحكام. بمعنى آخر أنها تفترض أن الروبوت قادر على تطبيق مستوى معين من المسئولية الأخلاقية والمعرفة سبب ذلك تأمل معي القانون الأول: لا يجوز الروبوت إيذاء ... أو السماح بحدوث ما قد يؤذيه من خلال عدم اتخاذ أي إجراء يشير مصطلح من خلال عدم اتخاذ أي إجراء إلى أن الروبوت قادر على تحديد ما إذا كان الإنسان في خطر أم لا، وقادر على تحديد ما إذا كان الإجراء ضروريا لمنع الضرر المحتمل أم لا، وقادر أيضًا على تحديد الإجراء المطلوب. ويضاعف القانونان الثاني والثالث المشكلة من خلال مطالبة الروبوت بإصدار حكم بشأن ما إذا كانت طاعة الإنسان، أو حماية نفسه، تتعارض مع القانون الأول (والثاني). ولا يوجد روبوت نستطيع تصميمه حاليا أو في القريب العاجل يمتلك ما يكفي من الذكاء» ليكون قادرا حتى على التعرف على هذه الأنواع من الخيارات، ناهيك عن اتخاذها.
حتى لو كان روبوت المستقبل البعيد ذكياً بما يكفي لإصدار أحكام أخلاقية؛ فلكي يسمح له بالقيام بذلك، لا بد للمجتمع أن يمنحه الحق في أن يُنظر إليه على أنه فرد مسئول أخلاقيا بعبارة أخرى، منح الروبوت هوية شخصية (أو شيئًا يشبهها إلى حد كبير). ومع الحقوق تأتي المسئوليات التي ستشكل مرةً أخرى مشكلة صعبة على المجتمع مما يطرح السؤال الآتي: ما العقوبات التي ستكون مناسبة مثلا للروبوت الذي يخرق قوانين الروبوتات؟ ولكي تكون الروبوتات آمنة فيما يتعلق بالقوانين الثلاثة لن يتطلب الأمر تقدمًا كبيرًا في الذكاء الاصطناعي للروبوتات فحسب، بل سيتطلب أيضًا تغييرًا كبيرًا في الوضع القانوني للروبوتات للتحول من منتجات إلى أفراد مسئولين أخلاقيا ذوي حقوق ومسئوليات.
يتفق معظم علماء الروبوتات على أن الروبوتات في المستقبل القريب لا يمكن أن تكون مسئولة أخلاقيا ومعنويا على الرغم من أن بعضهم يزعم، جدلًا، أنه يمكن في المستقبل تصميم روبوتات لديها وعي اصطناعي يمكنها من تشفير سلوكيات قواعد الاشتباك العسكرية. بالرغم من ذلك، يتفق علماء الروبوتات على أن أخلاقيات الروبوتات هي قضية مهمة للمجتمع، وقد بذلت العديد من الجهود الجادة في هذا الاتجاه، من بينها إعداد خارطة طريق لأخلاقيات الروبوتات» في أوروبا، وميثاق الأخلاقيات الروبوتات في كوريا الجنوبية، ومشروع المبادئ التوجيهية لضمان أمان أداء الجيل القادم من الروبوتات في اليابان.
لماذا إذن تُعد أخلاقيات الروبوتات مسألة مهمة إذا كانت الروبوتات لا يمكن أن تكون أخلاقية؟ هناك سببان الأول هو أن الروبوتات بدأت تُستخدم في بيئات عمل البشر ومعيشتهم، وكما وصفت في هذا الفصل، سيطلب من هذه الروبوتات التفاعل من كتب مع الأشخاص العاديين، بما في ذلك الأطفال، والأشخاص الضعفاء، وكبار السن وهي تطبيقات تتطلب ضمانات قوية فيما يتعلق بالتصميم والتشغيل والخصوصية. والسبب الثاني هو أنه ثمة خطر من وجود فجوة بين ما يعتقد مستخدمو الروبوتات أن هذه الروبوتات قادرة على فعله وما تقدر عليه بالفعل والسبب وراء ذلك تحديدا، كما رأينا، أن الروبوتات الذكية الحالية ليست ذكية جدا. وبالنظر إلى ميل البشر إلى إضفاء الصفات البشرية للآلات وإنشاء ارتباطات عاطفية معها فمن الواضح أن ثمة خطرًا يتمثل في إمكانية استغلال نقاط الضعف هذه إما عن غير قصد أو عن قصد. وعلى الرغم من أن الروبوتات لا يمكن أن تتحلى بالأخلاق، فينبغي على علماء الروبوتات أن يتحلوا بها ولذلك أدعو إلى أن يخضع الباحثون في علم الروبوتات والمصممون والمصنعون والموردون والقائمون على الصيانة لمدونة قواعد الممارسة، مع المبدأ التأسيسي القائل بأن الروبوتات لديها إمكانية تحقيق فائدة كبيرة جدا للمجتمع. فكيف يمكن أن تبدو مدونة قواعد الممارسة هذه؟ تقترح إحدى مجموعات مشاريع المبادئ الأخلاقية للروبوتات، التي صاغها فريق عمل بريطاني، ما يأتي:
(1) الروبوتات أدوات متعددة الاستخدامات ولا ينبغي تصميم الروبوتات بصفة حصرية أو أساسية لقتل البشر أو إيذائهم، إلا في مصلحة الأمن القومي.
(2) البشر هم المسئولون، وليس الروبوتات. ويجب تصميم الروبوتات وتشغيلها بالقدر المستطاع عمليًّا للامتثال للقوانين النافذة والحقوق والحريات الأساسية، بما في ذلك الخصوصية.
(3) الروبوتات منتجات. ويجب تصميمها باستخدام عمليات تضمن سلامتها وأمنها.
(4) الروبوتات أدوات من صنع الإنسان. ولا ينبغي تصميمها بطريقة خادعة لاستغلال المستخدمين الضعفاء، بل يجب أن تتسم طبيعة الآلة الخاصة بهم بالشفافية.
(5) يجب الرجوع إلى الشخص الذي يتولى المسئولية القانونية عن الروبوت.
الأهم من ذلك أن مشروع المبادئ الخمسة هذا يقلل من شأن السمات المميزة للروبوتات، ويركز بدلا من ذلك على أن الروبوتات هي أدوات ومنتجات ومصنوعات يدوية يجب تصميمها وتشغيلها ضمن الأطر القانونية وأطر المعايير. المبدأ الرابع فقط هو الذي يتناول صراحةً صفة تنفرد بها (بعض) الروبوتات وهي إنشاء روابط عاطفية أو اعتمادية بين الإنسان والروبوت، من خلال اقتراح عدم استغلال المصممين أو المصنعين لهذه العلاقات الاعتمادية، وضرورة أن يكون من الممكن دائمًا سحب الستارة جانبا وكشف الروبوت تحتها، مثلما فعل توتو في فيلم «ساحر أوز» (ذا ويزارد أوف أوز).
الاكثر قراءة في الفيزياء والفلسفة
اخر الاخبار
اخبار العتبة العباسية المقدسة
الآخبار الصحية

قسم الشؤون الفكرية يصدر كتاباً يوثق تاريخ السدانة في العتبة العباسية المقدسة
"المهمة".. إصدار قصصي يوثّق القصص الفائزة في مسابقة فتوى الدفاع المقدسة للقصة القصيرة
(نوافذ).. إصدار أدبي يوثق القصص الفائزة في مسابقة الإمام العسكري (عليه السلام)