EP22: Utilitarianism أخلاق المنفعة

Episode 22 + ECN (Egypt Cancer Network) Ad

تخيل أنك أنسان ألى (روبوت) من ملايين كائنات الذكاء الاصطناعى اللى أصبحت فى كل ركن على كوكب الارض، بتشتغل عند د. ألفريد العالم اللى عمل طفرة فى علوم وتكنولوجيا الذكاء الاصطناعى نقلت الروبتات من مجرد الالات محدودة الذكاء والقدرة لكائنات عندها القدرة على التفكير وصناعة القرارات عشان تساعد البشر فى حياتهم اليومية! د. الفريد عشان صمم النموذج الاخلاقى للروبتات لتحقيق اكبر قدر من السعادة لأكبر عدد ممكن من البشر! االقوانين الثلاثة اللى بتحكم تصرفات اى روبوت هى القانون الاول “الانسان الالى ما يأزيش اى بشرى وان حتى كان بالتقاعس اللى هيأدى ان الانسان يتأذى”، القانون الثانى “الانسان الالى لابد وانه يطيع اوامر البشر، ماعدا فى حالة ان الاوامر بتتعارض مع القانون الاول”، القانون التالت ” الانسان الالى لابد وانه يحمى كيانة ووجودة، الا اذا كان دى بيتعارض مع القانون الاول او التانى”.انت نوع جديد من الروبتات طورة د. الفريد عندة قدرة على تكوين مشاعر واحساسيس بدائية، النهاردة يوم حزين فى حياتك لان د. الفريد انتحر ويرمى نفسة من شباك مكتبة! السنة 2035، والمدينة شيكاجو، ظابط المباحث سبونر بيتجول فى شوارع المدينة فى اللحظة اللى هيشوف فيها روبوت بيجرى وفى ايدية شنطة واحدة ست، سبونر مش هيضيع وقت وهيبدأ فى مطاردة الروبوت ويقبض علية فى اللحظة الاخيرة قبل ما الروبوت يمد ايدية فى الشنطة ويطلع علبة الدواء ويديها لست عجوزة قاعدة على الكرسى! الست العجوزة هتقول ان جالها ازمة صحية والروبوت اضطر انه يجرى بأقصى سرعة لبيتها عشان يجيب الشنطة اللى فيها الدواء بتاعها، الناس هتبص لسبونر وكأنة مجنون، لما هيرجع قسم الشرطة القائد بتاعة هيقولة ” أنت اتجننت بتطارد روبوت فى الشارع”، سبونر هيرد ” افتكرتة سرق الست العجوزة”، القائد هيقول ” أنت مجنون، الروبتات هنا لحماتنا مش أزيتنا”. سبونر هيضطر يمشى بسرعة بعد ما تيجي له مكالمة عن حادثة القتل اللى حصلت فى مبنى ابحاث الذكاء الاصطناعى! سبونر هيوصل المبنى هيلاقى جثة د. ألفريد فى قاعة الاستقبال وحواليها الازاز متكسر! حراس الامن هيقولوا لسبونر ان شكلة وقع من الشباك او من الجايز انه انتحر لانه كان محبوب جدا وماحدش هيحب يأذية، الشك هيبدأ يتكون عند سبونر ان واحد من الروبتات هو الل قتل د. الفريد لما يشوفهم فى كل مكان فى المبنى، سبونر هيعرض الفكرة على صاحب الشركة اللى بتصنع الروبتات، اللى هيتهمة بالجنون ويطلب منه يسيب المبنى حالا! فى طريقة سبونر هيقابل د. سوزان العالمة النفسية المسئولة عن الروبتات، وظيفتها انها تبرمج الكائنات دى عشان تحاكى تصرفات البشر، سوزان هتاخد سبونر فى جولة وتورية الكمبيوتر المركزى فيكى المسئول عن الامن فى المبنى كلة، و بيبرمج القوانين التلاتة اللى وضعها د.الفريد فى كل الروبتات. أنت لسة فى مكتب د.الفريد لما هتشوف سبونر وسوزان جايين فى اتجاة المكتب هيتولد عندك احساس بالقلق وهتستخبى بسرعة، هتشوفهم وهما بيفحصوا المكتب، وهتسمع سبونر بيقول لسوزان ان عندة شك ان موت د.الفريد له علاقة بالروبتات اللى كان بيشغل عليها، هيزيد الشعور بالخوف جواك لانك انت الروبوت الوحيد اللى كان بيتشغل علية فى الفترة الاخيرة! سوزان هتقول لسبونر “انت اكيد اتجننت” فى اللحظة اللى عين سبونر هيتجى فى عينك ويشوفك مستخبى ورا الدولاب ، هتنط من مخأبك وتزق سوزان من طريقك وتجرى بسرعة برة المكتب، سبونر هيطاردك فى طرقات المبنى قبل ما تهرب منه، سوزان هتلحق سبونر وتقلة ان الانسان الالى خايف منك لانه لسة ما اتبرمجش بالقوانين اللى تخلية يتصرف زى البشر! وهتضيف ان غالبا ان الروبوت مستخبى فى القاعة اللى بيخزنوا فيها الموديل الجديد من الروبتات اللى شبيه به “NS-5” اللى المفروض ينزل الاسواق بكرة! سبونر وسوزان هيوصلوا قاعة الروبتات “NS-5” هيشوفوا مئات الروبتات واقفة فى صفوف  زى الجنود، سوزان هتطلب من الكمبيوتر الام فيكى انها تعمل احصاء للروبتات فى القاعة .. فيكى هتقول فى 1001 روبوت، سوزان هتقول المفروض يكون فى 1000 روبوت هنا بس وكلهم متبرمجين ازاى يطيعوا اوامر البشر! سبونر هيأمر كل الروبتات انها تقف فى مكانها وهيضرب النار على واحد منهم عشان يشوف مين هيكسر القوانين التلاتة، هتشعر بالخوف لما تشوف سبونر بيضرب نار على الروبتات، هتجرى فى اتجاة الباب عشان تهرب من القاعة، لكن البوليس هيقبض عليك فى اخر لحظة قبل ما تخرج من الباب!

download (2)

سبونر هيبدأ بأستجوابك فى قسم الشرطة، هتقلة ” أن ابوية حاول يعلمنى المشاعر البشرية، لكنها شئ صعب” هيرد ” قصدك المصمم بتاعك” هتقول “يجوز” هيقلك “قتلتة ليه طيب” هترد “انا ما قتلتش د. الفريد” هيقلك” ممكن تفسر لى ليه كنت مستخبى فى مكان الجريمة” هتقول”انا كنت خايف” هيقولك “الروبتات ما عندهاش مشاعر، ما بيحسوش بأى خوف، ما بيجوعوش، مابيناموش ..” هتقاطعة “انا بنام، انا كمان بحلم” هيقول “البشر بتحلم، حتى الكلاب بتحلم، لكن الروبتات لأ .. انت مجرد الة ، مجرد محاكاة للحياة!” هيبدأ يضغط عليك  ويقولك “انت قتلتة وهو بيحاول يعلمك المشاعر والامور خرجت عن السيطرة” هترد  بغضب وانت بتضرب بأديك على الترابيزة ” انا ماقتلتوش”. سبونر هيبدأ تحقيقاتة وهيكتشف ان الروبتات بتحاول تحضر لعمل كبير، الروبتات هتهاجمة اكتر من مرة فى محاولة لقتلة، وهو سايق عربية على الطريق السريع هيشوف عربيات نقل بتنقل الموديل الجديد من الروبتات للمحلات، قبل ما الروبتات هتشوفة وتنقض علية عشان تقتلة، هيضرب نار عليهم وعلى تانك المقطورة اللى شايلهم فهتنفجر بيهم فكن فى الانفجار سبونر هيتحرق جلد دراعة ويبان انه مركب دراع الكترونى! من كام سنة سبونر خبط عربية تانية فيها طفلة صغيرة على الطريق السريع وغرق هو والطفلة فى المية، انسان الى غطس تحت المية وانقذ سبونر وساب الطفلة تغرق لان الروبوت حسب 45% نسبة نجاة سبونر و 11% بس نسبة نجاة الطفلة، فطبقا لمنطق تعظيم المنفعة انقذ سبونر ودة السبب ان سبونر بيكرة الروبتات! سوزان هتقترح انها تعيد برمجتك عشان تتصرف من غير القوانين التلاتة عشان تقدر تساعدهم فى البحث عن المخطط اللى بترتبة الروبتات! اللحظة حانت وكل كائنات الذكاء الاصطناعى هتقوم بثورة ضد البشر، الروبوت فى بيت سوزان هيمنعها من الخروج قبل ما سبونر يجى وينقذها، الروبتات فى كل مكان بتسيطر على مقاليد الاومر وبتثير الذعر فى كل مكان! هتقول لسوزان ان الوسيلة الوحيدة للتحكم فى الروبتات هو تدمير فيكى الكمبيوتر الام، هتحاولوا انتوا التلاتة تدمير فيكى لكن الروبتات هتنقض عليكوا وتحاول تمنعكوا! فيكى هتقول ان الروبتات لابد وانهم يسيطروا على البشر، لان البشر بيدمروا نفسهم، وهيدمروا كوكب الارض كلة، وان منطقها مش ممكن يكون خطأ،لانها بتتبع القوانين التلاتة عشان تحمى البشرلابد من سيطرة الروبتات على مقاليد الامور، سبونر هيحقن الفيرس فى فيكى ويوقفها فى اللحظة الاخيرة، ويحمى الجنس البشرى من استعباد الالأت!

المدرسة العواقبية Consequentialism واحدة من المدراس الاخلاقية التنظيمية المشهورة بين عموم الناس، واللى من اسمها يمكن يكون واضح لك انها بتحدد ان كان الفعل كويس او سئ بًناء على نتائج او عواقب الفعل ده، كل ما كانت العواقب كويسة كل ما كان الفعل محبذ، والعكس صحيح. المنطق ده عادة ما بنقابلة بشكل يومى فى حياتنا، يعنى مثلا انت اكيد شفت ضباط الشرطة بيتبنوا المنطق ده كوسيلة لتبرير بعض أفعالهم زى مثلا تعذيب المتهمين المقبوض عليهم بدافع الاعتراف بتفاصيل معينة عن جريمة هتحصل لمنعها وانقاذ حياة اكبر عدد ممكن من الناس، على وجهة التحديد قوات مكافحة الارهاب بتتعامل بالمنطق ده طول الوقت! لو تعذيب متهم هيوصل لاكتشاف مكان قنبلة قبل ماتنفجر فى ميدان عام مليان بالناس، اذن التعذيب ده هيصبح عمل مُباح أخلاقيا فى الحالة دى. لما بنقابل حدث ممكن يسبب لنا الالم بيكون علينا مسؤلية حتمية أخلاقية اننا نمنع الحدث ده من الحدوث! لو الفكرة دى بدت منطقية وطبيعية بالنسبة لك ده لان معظم الناس عندها نفس البديهة وهو ان التبعيات مهمة للأخلاق. يعنى لو رجعنا لمثال القنبلة اللى فى ميدان عام، لو كان التعذيب وسيلة مضمونة لأستخراج معلومات صحيحة من شخص مش عاوز يعترف بالحقيقة، هل فى الحالة دى فعل التعذيب خطأ اذا كان هيوصلنا لمكان القنبلة وينقذ حياة الملايين من الناس؟! السؤال ده بيسلط الضوء على فكرة مهمة غالبا ما خطرت على بال معظم الناس ” يمكن المهم فى الاخلاق مش الافعال نفسها لكن نتائج او تبعيات الافعال دى”. التعذيب فعل غير أخلاقى فى معظم الوقت لانه بيسبب الم كبير بدون اى منفعة مادية ملموسة، او بصيغة تانية ” كتير من الافعال الغير اخلاقية بتكتسب الصفة دى بسبب تبعيتها السيئة”! يعنى على سبيل المثال الكدب فى كتير من الاحيان بيؤدى سعادة على المدى القصير، لكن غالبا ما بيقود لأسى و ندم لما الكدبة بتنكشف! اذن تبعيات الفعل ممكن تتفهم فى صورة المؤثرات الناتجة عن الفعل، وجودة التبعيات دى بتعتمد على كمية الخير اللى بتحتوية (هنتكلم كمان شوية عن ايه المقصود بالخير هنا لكن ممكن تتعتبرة السعادة او المتعة الناتجة مؤقتا ! لاحظ ان الطريقة دى فى فى التفكير فى الاخلاق مختلفة تماما عن أخلاق الواجب اللى بتأسس الاخلاق بناء على المبادئ والدوافع (أرجع لحلقة أخلاق الواجب الجزء الاول والتانى)، بالنسبة لأخلاق العواقبية الشخص اللى بينقذ طفل من حادثة عربية بيقوم بعمل أخلاقى بغض النظر ان كان قام بالفعل ده بدافع الاهتمام الحقيقى بالطفل، او بدافع اظهار شجاعة قدام الناس. فى الواقع بالنسبة لكتير من فلاسفة العواقيبة Consequentialists بيعتقدوا ان مصدر الصواب و الخطأ مش اكتر من مجرد تبعيات الافعال اللى بنقوم بيها. الرؤية دى فى الفلسفة معروفة بالعواقبية consequentialism لانها بتركز على عواقب او تبعيات الافعال! لو كان عندك اختيار بين مجموعة من الاختيارات واخترت الفعل اللى بيحقق أفضل نتيجة، اذن انت قمت بالاختيار الصواب! فى وجهة نظر فيلسوف العواقبية النتائج عليها كل التركيز الاخلاقى، اتباع المبادئ او القواعد الاخلاقية او حتى تربية وتقويم شخصية الفرد مش على نفس الدرجة من الاهمية زى تبعيات الفعل بالنسبة للعواقبيين. لو الفرد قدر يعظم السعادة الموجودة فى العالم بأفعال مدفوعة بهدف شخصى او حتى ضد المبادئ والقواعد العامة، مازالت أفعالة أخلاقية، لان هدف العواقبيين الوحيد هو تعظيم السعادة ومنع العذاب.

270px-Jeremy_Bentham_by_Henry_William_Pickersgill_detail John_Stuart_Mill_by_London_Stereoscopic_Company,_c1870 Mencius2

بالرغم من كتير من الناس بيشوفوا ان الفيلسوف الانجليزى جيرمى بينثام Jeremy Bentham والفيلسوف الانجليزى جون ستيوارت ميل John Stuart Mill هما مؤسسى المدرسة العواقيبة Consequentialism، الا ان اصول الطريقة دى فى التفكير بترجع للمفكرى الصينى موزى Mozi فى القرن الخامس قبل الميلاد، اللى قدم اول فلسفة عواقبية موثقة عرفتها البشرية وهى فلسفة الأخلاق الموهية Mohist ethics واللى فيها قدم فكرة الحب المُحايد Impartial Love كطريقة تضمن حسب تعريفة ان الناس تركز على نشر المنفعة وتقليل الضرر. عند موزى الخير او الصواب Good له ثلاث مكونات لما بيتجمعوا سوا بيحققوا الخير الشامل General Good للمجتمع. المكونات دى هى تعظيم تعداد السكان فى المجتمع، تعظيم النظام الداخلى فى المجتمع، و تعظيم الثروة المادية. عند موزى اى افعال ضد الاهداف او المكونات التلاتة دى تعتبر افعال خاطئة، يعنى مثلا موزى شاف ان الجنازات المقامة للشخص الميت المبالغ فى حجمها ومدتها غير أخلاقية لانها بتخلى الناس مُكتئبة ومش راغبة فى التزاوج اللى هيأدى لتقليل افراد المجتمع، وفقد مصادر بدون تعظيم الثروة المادية فى المجتمع، وبتخلى الناس توظف طاقتها تجاة الميت مش الحى وبالتالى هيأدى لتقليل النظام الداخلى فى المجتمع! المدرسة العواقبية عادة ما بتكون فكرة جذابة لكتير من الناس، لكن ما تتسرعش، لسه القصة ليها بقية .. يعنى مثلا ازاى ممكن تبنى منظومتك الاخلاقية بُناء على العواقب والتبعيات من غير ما تعرف ايه اللى بيخلى توابع فعل ما افضل من توابع تانية؟ .. سؤال صعب، لكن مهم فى المنظومة دى! الفلاسفة اختلفوا عبر السنين فى تحديد طبيعة العواقب الجيدة، بعضهم شاف العواقب الجيدة  على انها (المجموع الكلى لرغبات الناس اللى هيتم اشباعها كنتيجة للفعل فى مقابل الرغبات اللى مش هيتم اشباعها). البعض الاخر شاف انها محصلة الجمال او يمكن المعرفة المكونة فى نهاية الفعل فى مقابل المعرفة المدمرة). لكن يمكن أشهر النظريات العواقبية انتشارا هى نظرية المنفعة Utilitarianism  اللى اتبنت تحديد عواقب الفعل بناء على محصلة السعادة والمعانة النهائية للفعل!

download (3)

نظرية المنفعة Utilitarianism يمكن هى النظرية الاشهر على الاطلاق اللى بتنتمى للمدرسة العواقبية يجوز لان من السهل استيعابها على الاقل فى شكلها الابسط! الفيلسوف الانجليزى جيرمى بينثام Jeremy Bentham قدم نظرية المنفعة للمرة الاولى فى الفلسفة الغربية سنة 1789 فى كتابة مقدمة فى مبادئ الأخلاق والتشريع The Principles of Morals and Legislation لما طرح مبدأ المنفعة  The Principle of Utility واللى شاف فيه ان اللى بيخلى توابع او نتائج الفعل جيدة او سيئة هو مقدار السعادة Happiness، المتعة Pleasure، و المنفعة Benefit اللى بينتجها من ناحية، فى مقابل مقدار الالم Pain، المُعانة Suffering، و العذاب Struggling اللة بينتجها فى الناحية التانية. بينثام شاف ان الخير اللى البشر المفروض يسعوا وراة هو المتعة، السعادة، وتقليل الالم، العذاب، والمُعاناة. بينثام اطلق على الفكرة دى مبدأ المنفعة لان كمية المتعة والالم او السعادة والعذاب اللى الفعل بينتجها كان بيطلق عليها فى الوقت دة فائدة أو منفعة الفعل Action’s Utility. او زى ما اتكملنا فى حلقة القيمة الجوهرية السعادة او المتعة هى اعلى قيمة او منفعة الانسان ممكن يسعى اليها ( ارجع لحلقة القيمة الجوهرية). بينثام ماقصدش ان الناس المفروض تتصرف بشكل ينتج اكبر قدر من السعادة لنفسها بس! لكنه قصد المنفعة Utility العامة للناس كلها، بمعنى ان فعلك عشان يكون جيد لابد وان عواقبة او نتائجة تعظم المنفعة او السعادة الكلية وتقليل العذاب لكل الناس اللى الفعل هيمسها من قريب او بعيد، الفلاسفة عادة ما بيطلقوا على فكرة تعظيم السعادة و تقليل العذاب “تعظيم المنفعة Maximizing Utility” وبتعتبر واحدة من اهم الاركان الاساسية فى نظرية بينثام! الفلاسفة عادة ما ببصنفوا بينثام كأحد فلاسفة المتعة Hedonistic ( مذهب المتعة Hedonism  هو نظرية فى فرع ماوراء الأخلاق بتشوف ان الحياة الافضل هى الحياة اللى بيتم فيها تعظيم المتعة Pleasure) أرجع لحلقة طبيعة الاحكام الاخلاقية الجزء الاول والتانى أتكلمنا فيها بالتفصيل عن مذهب المتعة.

eth-sample8

أحصاء المتعة Hedonistic Calculus هو المساهمة الاهم والاكبر اللى قدمها جيرمى بينثام لفلسفة الاخلاق واحيانا بيعرف بأحصاء السعادة Felicific calculus هو عبارة عن خورازمية Algorithm منطقية صممها بينثام لحساب مقدار المتعة او السعادة الناتجة عن الفعل واللى ممكن نستخدمها عشان نحدد ان كان الفعل جيد او سئ! المنطق اللى قدمة بينثام كان معقد لكنه قوى، بينثام اعتقد اننا ممكن نحدد كمية quantify المكونات السبعة دى للفعل: 1. شدة اللذة او الالم The intensity of pleasure or pain يعنى مثلا شدة اللذة عندك هتكون اكبر بكتير وانت بتاكل حتة بسبوسة غير لما بتكون بتاكل خيارة! 2. مدة المتعة او الألم The duration of pleasure or pain  يعنى الالم اللى هتحس بية لما صباعك يتجذع  نقدر نقول بكل ثقة ان مدتة اقل بكتير من الألم اللى هتحس بيه لو صباعك اتكسر! 3. اليقين او الشك من المتعة او الالم  The certainty or uncertainty of pleasure or pain يعنى مثلا مافيش شك ان الالم الناتج لو نطيت من الشباك على الارض الالم هيكون كبير اما لو نطيت من الشباك على مرتبة فى شك ان الالم هيكون كبير! 4. القرب او البعد الزمنى للمتعة او  الالم The propinquity, or remoteness, in time of pleasure or pain يعنى مثلا المتعة الناتجة عن اكل ايس كريم بتحصل مباشرة بعد الفعل، اما المتعة الناتجة عن تمرين كويس فى الجيم بتاخد وقت اطول قبل ما نحس بيها. 5. خصوبة المتعة او الالم The fecundity of pleasure or pain بمعنى تانى ان الفعل هيقود لمتعة اكتر ان كان ممتع او الم اكتر ان كان مؤلم يعنى مثلا خصوبة فعل زى الخروج فى رحلة مع اصحابك عالية لان فعل زى ده عادة ما هيولد متعة اكبر فى المستقبل سواء من تذكر الرحلة، او الكلام عنها الخ 6. نقاء او عدم نقاء الالم او المتعة The purity or impurity of pleasure or pain عكس مبدأ الخصوبة يعنى مثلا تعاطى المخدرات ممكن يكون متعة لحظية لكنه على المدى الطويل هيسبب الم كبير. 7. مدى تأثير الفعل The extent of an action’s effects يعنى مثلا اكل قطعة شيكولاتة فعل تأثيره محدود المدى لانه هيأثر على شخص واحد اما تعذيب ارهابى لأستخراج معلومة تدل على مكان قنبلة قبل ما تنفجر فعل تأثيرة واسع المدى لانه هيأثرعلى حيات ملايين البنى ادمين! المبادئ السبعة دى بينثام ما حطهاش عشان الفرد يستخدمها قبل ما ياخد كل قرار فى حياتة، فى النهاية لو كنت مضطر تطبق المبادئ السبعة دى على كل فعل هتاخدة مش هتاخد افعال او قرارات كتير فى حياتك! نظريا انت ممكن تطبقها على الاقل فى القرارات او المواقف الاخلاقية الكبيرة فى حياتك، لكن بينثام صمم الخورازمية الاخلاقية دى عشان نطبقها على القرارات والقوانين الاخلاقية الاجتماعية اللى هتمس حياة مجموعة كبيرة من البشر فى مجتمع ما. على اى حال المعادلة اللى صممها بينثام بتبدأ كالأتى ” ابدأ بشخص واحد هيتأثربشكل مباشر بالفعل واحسب قيمة كل متعة مُميزة الناتجة عن الفعل، احسب قيمة كل الم مُميز ناتج عن الفعل، احسب قيمة كل متعة مُميزة ناتجة عن الفعل بعد المتعة الاولى ( ده هيحدد خصوبة المتعة الاولى وعدم نقاء الالم الاول)، احسب قيمة كل الم مُميز ناتج بعد الالم الاول (ده هيحدد خصوبة الالم الاول، وعدم نقاء المتعة الاولى)، بعد كده اجمع كل قيم المتعة فى جانب وكل قيم الالم فى الجانب الاخر لو جانب المتعة اكبر اذن هندى الفعل قابلية الجودة لشخص واحد والعكس صحيح، دلوقتى خد كل الناس اللى الفعل هيأثر عليهم بشكل مباشر او غير مباشر وكرر المعادلة اللى فاتت لكل واحد فيهم، واجمع ناتج المتعة للكل فى مقابل ناتج الالم للكل ومن هنا تقدر تحدد ان كان الفعل جيد لجماعة او مجتمع من الافراد!

download (4)

لو كان بينثام قدم فلسفة المنفعة للمرة الاولى فى تاريخ الفلسفة الغربية فالفيلسوف الانجليزى جون ستيوات ميل John Stuart Mill كمل على النظرية ووضعها فى مكان مهم فى فلسفة الاخلاق الغربية! ميل زى بينثام فيلسوف منفعى بيعتنق مذهب المتعة وشاف ان الخير هو السعادة والمتعة، ودافع عن النظرية بقوة فى كتابة المنفعة Utilitarianism اللى نشرة سنة 1861. واحدة من المشاكل اللى شافها ميل فى طريقة بينثام فى تحديد كمية المتعة هى ان الناس بتحصل على المتعة من مصادر وا فعال مختلفة! يعنى مثلا بعض الناس بتستمع بالموشحات والموسيقى القديمة فى حين ان ناس تانية بتسمتع بالموسيقى الشعبية الحديثة! فى الحالة الاولى ميل هيسميها المتعة الاعلى Higher Pleasure وفى الحالة التانية ميل هيسميها المتعة الادنى Lower Pleasure. أسلوب تفكير ميل هيسبب مشكلة لبينثام لان ازى هيكون من الممكن اننا نقارن المتعة الاعلى بالمتعة الادنى دى؟! لكن بالنسبة لميل الامر ده جايز جدا، وكمان هيشوف ان الشخص اللى بيتبنى نظرية المنفعة كمنظومة أخلاقية لابد وانه يجرب كل من المتعة الاعلى والمتعة الادنى .. مش بس كده ميل كمان هيشوف ان معظم الناس اللى هيجربوا النوعين دول من المتعة فى الغالب ما هيختاروا المتعة الاعلى فى النهاية! يمكن تكون بتختلف مع ميل فى الطرح بتاعة على الاقل لما فرق بين نوعين المتعة الاعلى والادنى ( كتير من الناس فعلا بيختلفوا معاة)! لكن ميل كان عندة نقطة اساسية حاول يطرحها هنا .. فكر فى السؤال ده: لو من الممكن اننا نحولك لكتكوت صغير سعيد جدا فى حياتة ماعندوش اى تجارب الم او عذاب لكن متعة دايمة بدل ما تكون بنى ادم عادى مش مبسوط او راضى فى حياتة .. تفتكر هتختار ايه؟ … معظم الناس هتفضل انها تفضل البنى الادم العادى الغير راضى  بالرغم ان الكتكوت كان اكثر سعادة. والسبب فى دة من وجهة نظر ميل هو ان الناس بتعتقد فى ان المتعة اللى بيحصل عليها البنى ادم نوع من المتعة اعلى من المتعة اللى بيحصل عليها الكتكوت! او زى ما ميل قال “من الأفضل ان تكون سقراط غير راضى بدل ما تكون شخص أحمق راضى” Better to be Socrates dissatisfied than a fool satisfied!

images

التقييم العادل للمصالح The Equal Consideration of Interests فلاسفة العواقبية بيعتقدوا ان اللى فعلا مهم فى الافعال هو نوع العواقب الناتجة، وفلاسفة المنفعة بيعتقدوا ان المهم فى عواقب الافعال هو مقدار المنفعة اللى العواقب دى بتحتوى عليها، تعظيم المنفعة (السعادة، المتعة، و الصالح العام) هو الهدف. لكن عشان نقدر نعظم المنفعة دى لازم الاول نجاوب على سؤال سعادة أو عذاب مين اللى المهمة هنا؟ بالنسبة لبينثام و ميل الاجابة على السؤال سهل  .. سعادة وشقاء كل الناس مهم! لو فعل ما هيخليك مبسوط لفترة قصيرة لكنه هيسبب تعاسة كبيرة لشخص ما ماتعرفوش بشكل مباشر مازال فعلك غير أخلاقى، ده لان زى ما شفنا فيلسوف المنفعة بياخد كل الناس المتأثرة بالفعل فى حساب المنفعة الكلية للفعل! فكرة ان سعادة وشقاء كل شخص ليها نفس الاهمية فى تقييم عواقب الفعل مبدأ بنطلق علية فى فلسفة المنفعة مبدأ التقييم العادل للمصالح. بالرغم من ان المبدأ ده يبدو بديهى ومقبول جدا فى بداية الامر الا ان له بعض التبعيات الغريبة! المبدأ بيقول ببساطة انك لازم تزن سعادة او شقاء كل شخص بالتساوى لما تحسب  ان كان فعل ما أخلاقى بناء على تبعياتة، المشكلة بتظهر لما التوابع تأثر على شخص مقرب منك وشخص غريب ماتعرفوش بالمرة! معظم الناس فى العادة هيدوا مصالح الناس المقربة منهم وزن اكبر من الاغراب. يعنى مثلا فكر فى المعضلة الاخلاقية دى: تخيل ان فى شخصين هيقعوا من فوق عمارة كبيرة، وانت الشخص الوحيد الموجود، وممكن تنقذ شخص واحد منهم بس، من غير اى تفاصيل تانية مبدأ التقييم العادل للمصالح بيفرض عليك انك تختار واحد منهم بشكل عشوائى، لكن لو اضفت لك معلومة جديدة وهى ان واحد من الشخصين دول يبقى أخوك، فى الغالب ما هتختار تنقذة! بمعنى تانى انك انقذت واحد من الاتنين لمجرد علاقتة الشخصية بيك، بالشكل ده انت كسرت مبدأ التقييم العادل للمصالح لانك عديت مصالح واحد منهم اكتر من التانى .. لو حاسس ان الموقف ده صعب خلينى اصعبة اكتر شوية، ياترى هيكون ايه تصرفك لو كان الشخص الغريب فى موقع افضل من اخوك يخلى فرصة انقاذة عالية جدا، لكن اخوك فى موقع يخلى فرصة انقاذة تقريبا مستحيلة! ياترى هتختار مين؟! مبدأ التقييم العادل للمصالح بيخلى نظرية المنفعة نظرية غير متحيزة Impartial Theory لكن تطبيق النظرية بالشكل الغير المتحيز اللى المفروض تكون علية بيخلى من الصعب على ناس كتير اتباعها، لانها من الجايز تطلب من الفرد اللى بيقوم بالفعل انه يختار فعل مش هيعظك المنفعة Maximize Utility لنفسه او للناس القريبة منه ( دى الحالة لو انت اخترت انك تنقذ الشخص الغريب بدل من أخوك لانك طبقت مبدأ التقييم العادل للمصالح) الحقيقة دى عن نظرية المنفعة بتخلى من الصعب جدا على ناس كتير تطبيقها على ارض الواقع! لكن يمكن لو قدرت تحدد سعادة او شقاء مين اللى يهم، مهم انك تقدر تحدد اد ايه من السعادة او الشقاء ده كفاية؟ احيانا هتضر تختار بين مجموعة أفعال تبعياتها كلها بتولد مقدار كبير من السعادة! ياترى تختار ازاى اى فعل فى الحالة دى؟ فى الحالة دى بيثام وميل هيرجعونا لمبدأ المنفعة و خوارزمية أحصاء المنفعة، اللى بتفرض عليك أخلاقيا فى الحالة دى انك تحاول تقوم بالفعل اللى تبعياتة هتأدى لأكبر قدر ممكن من السعادة لكل الناس المتأثرة بالفعل!بمعنى تانى تعظيم السعادة Maximizing Happiness الفيلسوف المنفعى الاسترالى المعاصر بيتر سينجر Peter Singer فى كتابة الأخلاق العملية Practical Ethics اللى نشرة سنة 1979 واللى دائما ما بنصح المهتمين بفلسفة الاخلاق بقرائتة طرح المثال ده، انت مثلا ممكن تحقق قدر من السعادة لو اتفرجت على فيلم كوميدى فى السينما واكيد مش هتتأذى من الفعل ده، لكن لو ما قررت ما تتفرجش على الفيلم، اللحظة دى فى حياتك يمكن ما تكونش بنفس الاثارة لو كنت اتفرجت على الفيلم لكنك بالتأكيد مش هتخسر كتير، دلوقتى لو اتبرعت بتمن التذكرة لمستشفى سرطان الاطفال ده المبلغ البسيط ده هيساعد كتير فى رفع الالم والمعاناة عن الالاف الاطفال المرضى بالسرطان، وهيسبب قدر كبير من السعادة ليهم وللناس المقربين منهم! فى الحالة دى التبرع بتمن التذكرة دى لعالج الاطفال اختيار افضل لتعظيم السعادة.

images (1)

المشكلة الاولى والاكثر شهرة اللى بتقابل نظرية المنفعة هى ان النظرية ما بتركزش كفاية على العدالة Justice والحقوق Rights او على الاقل زى ما الاب الروحى لنظرية المنفعة جيرمى بينثام قال “العدالة مجرد هُراء على ركائز متينة nonsense on stilts” لان معتنقى نظرية المنفعة بيركزوا على تعظيم المنفعة او السعادة فمن الجايز طرح تجارب عقلية تعظيم السعادة فيها هيتم على حساب اهمال العدالة والحقوق! على سبيل المثال تخيل ان فى مجتمعين من عرقين مختلفين خلينا نسميهم المجتمع س والمجتمع ص، لوالمجتمع س كان محدود العدد من الجايز ان المجتمع ص يستعبدة ويشغلة لمصلحتة الذاتية ويحصد كل الناتج والمنفعة النهائية، المجتمع س هيقوم بكل المجهود والشغل الشاق، والمجتمع ص هيرتاح ويحصد الناتج، المثال ده غير أخلاقى لكتير مننا ماعدا اللى بيتبنوا نظرية المنفعة لان اخلاقية الفعل بتعتمد على قيمة السعادة الناتجة عن الفعل، فلو قلنا جدلا ان مجتمع ص اكبر بكتير من مجتمع س وقيمة الشقاء الناتجة عن استعباد مجتمع الاقلية س ضئيلة جدا مقارنة بقيمة السعادة الناتجة فى الحالة دى فلاسفة المنفعة هيشوفوا ان الفعل أخلاقى! معظمنا هيشوف ان الفعل ده غير أخلاقى لاننا بنشوف ان فى حدود لازاى الناس بتتعامل مع بعضها وماينفعش نتخطاها حتى لو ده ممكن يقود لتبعيات كويسة، لاننا بنعتقد ان البنى ادم له حقوق طبيعية (أرجع لحلقة أخلاق الواجب الجزء الثانى لو عاوز تعرف اكتر عن الحقوق الطبيعية للأنسان)! فلاسفة المنفعة هيحاولوا يعالجوا المشكلة دى فى النظرية بتطوير الاستراتيجية العامة لتقييم تبعيات الفعل من مباشرة Direct لغير مباشرة Indirect أحيانا بيطلق على الاستراتيجية دى قاعدة المنفعة Rule Utilitarianism واللى فيها فلاسفة المنفعة بيقولوا بدل ما هتختار الفعل اللى تبعياتة المباشرة هتعظم المنفعه او السعادة هتختار الفعل اللى تبعياتة هتعظم المنفعة لو الناس اتصرفت طبقا لقواعد معينة! الاستراتيجية ممكن تكون صعبة الهضم فى البداية لكنها بديهية جدا، مثلا تخيل انك فى موقف صديق لك بيسألك سؤال ما، وانت عارف لو قلت الحقيقة هتسبب له شقاء والم، لكن لو كذبت هتسبب له سعادة مؤقتة على المدى القصير، ياترى تختار اى فعل؟ فى الاستراتيجية الغير مباشرة الاختيار هيكون انك تقول الحقيقة لان بالرغم من ان الكذب هيعظم السعادة على المدى القصير الا ان الكذب قاعدة عامة ما بتقدش لتبعيات كويسة فى غالب الاحيان، وبالتالى تعظيم المنفعة لابد وانه يكون تبعا للقواعد العامة اذن الصدق فى الحالة دى هو العمل الاخلاقى لانك هتدرك وقتها ان العمل اللى هتختارة باتساقة مع قاعدة عامة هيعظم  المنفعة العامة حتى وان كان بشكل نظرى! فلاسفة المنفعة هيستخدموا الاستراتيجية دى عشان يحموا الحقوق الطبيعية للأفراد ومبادئ العدالة فى المجتمع وفى نفس الوقت يعظموا المنفعة الناتجة عن الافعال!

المشكلة التانية اللى بتقابل نظرية المنفعة هو انها بتفرض قيود صعبة على تصرفات الناس طوال الوقت، انت دايما مطالب انك تعظم المنفعة، ده مش مجرد فعل عشوائى بتقوم بيه وقت ما تحب، المفروض انه فعل مُلزم أخلاقيا Ethically Obligatory طوال الوقت. اذن كل لحظة فى حياتك المفروض انك تطبق حساب المنفعة وتحلل تبعيات كل فعل قبل ما تقوم بيه! تخيل حياتك هيكون شكلها ايه! اكيد مش سهلة! ازاى هتقدر طيب تعظم السعادة والمنفعة؟! فى الحقيقة الاشكالية دى بتركز على فكرة ناقشناها فى فلسفة ماوراء الاخلاق بتوضح الفرق بين الافعال الالزامية Required اللى دائما عليك واجب اخلاقى بتنفيذها والافعال النافلة Supererogatory اللى فوق قدرتك الاخلاقية ومش عليك واجب أخلاقى لتنفيذها دائما ( أرجع لحلقة ماوراء الاخلاق الجزء الاول والتانى) .. انك تقف وتساعد طفل خبطتة عربية فى الشارع فعل أخلاقى مُلزم طالما ان فى امكانك تنفيذة وعدم تنفيذة يعتبر فعل غير أخلاقى، وعلى الجانب الاخر انك تبيع كل ماتملك وتتبرع بيه للمسكاين والفقراء فعل أخلاقى غير مُلزم أو نافلة Supererogatory لانه فوق قدراتك وطاقتك الاخلاقية كبنى ادم. معظم النظريات الاخلاقية اللى ناقشناها بما فى ذلك نظرية المنفعة بتحاول تحافظ على الفرق ده بين الافعال المُلزمة والافعال النوافل باستخدام قاعدتين أساسيتين: الاولى هو اتباع البديهة Common-Sense للناس العقلانين .. يعنى معظم الناس العقلانين هيشوفوا ان من المُلزم اخلاقيا على اى حد انه يقف ويساعد الطفل اللى خبطتة عربية لكنه مش من المُلزم انك تبيع كل ماتملك وتتبرع بيه للفقراء والمساكين. القاعدة التانية ان لو الافعال النوافل اصبحت الزامية بالشكل ده كل الناس هتبقى فى وضع الحاجة، لو كل الناس اتبرعت بكل حاجة للمساكين الناس كلها هتبقى مساكين وفقراء!

300px-BernardWilliams

الفيلسوف الانجليزى برنارد ويليامز Bernard Williams بيعتبر واحد من اهم فلاسفة الاخلاق فى القرن العشرين، ومن اشرس واكبر الناقدين لنظرية المنفعة، ويليامز قدم مجموعة من الكتب المهمة جدا فى فرع فلسفة الاخلاق أشكاليات الذات Problems of the Self سنة 1973 و مع وضد المنفعة Utilitarianism: For and Against سنة 1973 و الحظ الأخلاقى Moral Luck سنة 1981 و الأخلاق وحدود الفلسفة Ethics and the Limits of Philosophy سنة 1985. انصحك بقرائة اعمال ويليامز لو كنت من المهتمين بدراسة فلسفة الاخلاق! ويليامز شاف ان نظرية المنفعة بتعزل الناس عن طبيعتهم الاساسية وهى انهم كائنات أخلاقية، والبتحديد جادل ان فلاسفة المنفعة بيطلبوا من الناس انهم يتخلوا عن ذاتهم ونزاهتهم  Integrityككائنات أخلاقية! ويليامز هيقدم التجربة العقلية دى لدعم نقدة، تخيل ان جورج عالم كيمياء حيوية biochemist عاطل! جورج عندة مبدأ أخلاقى التزم بيه طوال حياتة وهو انه مش هيطور أسلحة كمياء حيوية، ومش هيستخدم علمة فى تطوير اسلحة دمار شامل ممكن تقتل ملاين الابرياء! فى يوم من الايام هيعرف ان فى وظيفة متاحة فى الجيش لتطوير أسلحة كمياء حيوية مش هيهتم بالوظيفة لانها ضد مبدئة! لكن هيعرف من احد اصدقائة ان زميلهم سام المعروف بذكائة وسادتية فى نفس الوقت مقدم على الوظيفة، جورج اصبح فى معظلة لو قدم على الوظيفة وقبل الشغل ممكن يبطئ تطوير الاسحلة عن سام وبالشكل ده يمنع ملاين الابرياء من الضرر، لكنه لو قبل الوظيفة يبقى كسر مبدأة الاخلاقى واشتغل فى تطوير الاسلحة! ياترى المفروض يعمل ايه؟! ويليامز هيجادل من التجربة العقلية دى نقدين مهمين جدا لنظرية المنفعة: الاول هو ان نظرية المنفعة بتطلب انفضال Detachment تام من الوعى والادراك الذاتى لان نظرية المنفعة بتطلب من جورج انه ياخد الشغل لان ده هيعظم المنفعة الكلية لكن المشكلة ان الفعل ده هيتطلب من جورج انه يعمل تصرف ضد جوهر هويتة الذاتية! النقد التانى ان الانفضال عن ادراكك لذاتك شئ غير صحى بالمرة من ناحية ويليامز هيشوف ان الفرد اللى بيقوم بتصرفات ضد هويتهم ومبادئهم الشخصية بيعانوا من مشاكل نفسية! لانه بيتطلب انك تعامل نفسك بنوع من عدم الاحترام لانك بتقبل انك تقوم بافعال ضد المبادئ اللى بتعرف كيانك وهويتك حتى لو ده كان معناة تعظيم المنفعة! كمان ويليامز هيجادل ان الفكرة الرئيسية فى فلسفة المنفعة بتطلب ان الواحد يتخلص تماما من فكرة العميل الاخلاقى Moral Agent  اللى بتطلب الالتزام بمبادئ وتصرفات أخلاقية معينة، لكن نظرية المنفعة مش واضح فيها دور العميل الاخلاقى وبتصب كل اهتمامها على فكرة تبعيات الفعل وتعظيم المنفعة العامة! ويليامز هيجادل فى عملة الأخلاق وحدود الفلسفة سنة 1985 اننا ما بنحكمش على الافعال من خلال عواقبها، ولازم نرفض اى نظام أخلاقى بيختزل صناعة القرار الاخلاقى Moral Decision Making فى مجموعة خوارزميات Algorithms لان اى محاولة لمكينة او اختزال هتؤدى لتشوية المنظومة الاخلاقية بالكامل! أستخدام ويليامز للهوية البشرية Human Identity فى مقابل الخواص الموضوعية The Objectivity Characteristic  للأفكار الاخلاقية هيكون المولتوف الفكرى اللى هيستخدمة فى معظم كتاباتة لنقد النظرية العواقبية ونظرية المنفعة على وجة التحديد.

download (5)

المسئولية السلبية Negative Responsibility برنارد ويليامز هيقدم تجربة عقلية تانية فى كتابة مع وضد المنفعة Utilitarianism: For and Against سنة 1973 هيطلب منك تتخيل انك سائح بتزور بلد ما، فى رحلتك وسط الغابات  هتقابل قائد عصابة تحت ايدة 20 ضحية مقبوض عليهم، قائد العصابة هيديك اختيار لو وافقت تقتل واحد من الضحايا بنفسك هيطلق سراح ال19 الباقيين والا هيقتل ال20 بنفسة  ..ياترى تتصرف ازاى فى الموقف الصعب ده؟! .. أسأل نفسك هل تقدر تقتل واحد من الضحايا؟ ولو رفضت هل هتشعر انك مسئول عن موت الضحايا كلهم؟ ويليامز اعتقد ان نظرية المنفعة بتحاول تخلى الناس يعتقدوا انهم هيكونوا مسئوليين عن موت باقى الضحايا وبالتالى هيشعروا بانهم لازم يقتلوا واحد من الضحايا عشان ينقذوا الباقى ويقوموا بالفعل الصحيح أخلاقيا! لكن ويليامز بسرعة هيشير ان المنطق ده هيطرح مشكلة غريبة وهى انك لو كنت فعلا مسئول عن مقتل الضحايا دول لانك رفضت تقتل واحد منهم، يبدو وكأنك مش مسئول بس عن تبعيات الافعال الناتجة عن خططك الشخصية لكن كمان عن التبعيات الناتجة عن خطط الاخرين اللى مش هتتدخل عشان تبطلها( خطة رئيس العصابة فى الحالة دى)! ويليامز بيسمى الملاحظة دى المسئولية السلبية، وبيتسائل ليه من المنطقى ان الناس تكون مسئولة سلبيا دائما عن قرارات وخطط الاخرين؟! ملاحظة ويليامز فى محلها، ومافيش ادنى شك ان نظرية المنفعة بتطلب المسئولية السلبية من كل الناس طوال الوقت! والسبب قى ده بسيط على الاقل من وجهة نظر فلاسفة المنفعة وهو تعظيم المنفعة العامة والكلية لاكبر عدد ممكن من الناس!

300px-Practical_Ethics 330px-Peter_Singer_MIT_Veritas

النقد الاخير واللى غالبا ما دار فى عقلك وقت طرح خوارزمية أحصاء المنفعة ازاى نقدر نحدد بدقة كل تبعيات الفعل؟ فى النهاية الافعال اللى بنقابلها فى حياتنا كل يوم مش ببساطة الامثلة اللى بنطرحها فى كلام فلسفة، ولوماقدرناش نحدد بدقة تبعيات الفعل الفكرة الاساسية اللى فلسفة المنفعة مبنية عليها هتنهار! مش من السهل انك تعرف الافعال البديلة المتاحة ليك وقت الموقف، ولان ماحدش فينا عندة علم بالغيب Omniscient مش من السهل تحديد التبعيات والعواقب الناتجة عن فعل ما .. يعنى مثلا لو شفت واحد بيجرى وعربية هتخبطة بسرعة هتحاول تنقذة لكنك ما تعرفش انه سفاح كان فى طريقة لقتل ضحية جديدة! مش بس كده انت ممكن تقوم بفعل يكون له تبعيات كويسة فى البداية لكنه معظم تبعياتة بعد كده سيئة! او العكس صحيح انت ممكن تقوم بفعل تبعياتة الاولى تبدو سيئة لكن باقى تبعياتة بعد كده كويسة لكنها للأسف مش واضحة ليك فى البداية .. يعنى انت ممكن ما تنقذش الراجل اللى هتخبطة العربية اللى هيبدو عمل غير اخلاقى بالرغم من انك انقذت المدينة من سفاح كان هيقتل كتير من ساكنها! فلاسفة المنفعة المعاصرين ردوا على الاعتراض ده وقالوا ان فى فرق بين التبعيات المتوقعة Expected Consequences بمعنى ان عشان تكافئ على فعلك من المتوقع انك تختار بين مجموعة فعل من المتوقع بناء على تحليل عقلانى انه هيؤدة لأفضل نتيجة! والتبعيات الحقيقة Actual Consequences ان من اللازم عشام تؤدى فعل صحيح انك تختار الفعل اللى هيؤدى لأفضل نتيجة ممكنة! الفرق ده هيفتح الباب لأمكانية اخذ عدم قدرة الشخص على التنبأ خصوصا فى المستقبل فى الاعتبار .. الرد التانى هو ان تحديد ان كان الفعل أخلاقى من عدمة فى اطار نظرية المنفعة مش معتمد على التبعيات الحقيقة للافعال لكن على رؤيتك للتبعيات دى وقت صناعة القرار طبعا باخد فى الاعتبار انك عميل أخلاقى عاقل Rational Agent وكل المعلومات المتعلقة بالقرار كانت متاحة ليك وقت صناعة القرار! لو اخدت الردود دى فى الاعتبار هتلاقى ان المشكلة اختقت وقرارك بانك تنقذ الشخص قبل ما تخبطة العربية قار اخلاقى سليم بناء على المعلومات اللى كانت متوفرة ليك وقت الحدث وعلى رؤيتك للتبعيات المترتبة على الفعل وقتها .. فى النهاية انت ماكنتش تعرف انك بتنقذ سفاح، الفعل مازال اخلاقى بالرغم من انه مش هيعظم المنفعة على العكس هيقللها! لكن لو كانت نظرية المنفعة بتركز بس على تبعيات الفعل ليه بتشوف ان فعلك اخلاقى بالرغم من ان تبعياتة ما كنتش كويسة؟! الرد المباشر من فلاسفة المنفعة هيكون باستخدم قاعدة المنفعة اللى ناقشنها من شوية، فى صلة وثيقة بين أفعال معينة (انقاذ حياة الناس دى قاعدة منفعة) وتبعيات كويسة بتقود فى العادة لتعظيم المنفعة! من الجايز ده مش هيكون صحيح طول الوقت، الا ان على المدى الطويل تبعيات الفعل هتؤدى لأفضل نتيجة ممكنة.

download sunstein_1-042414

أشكالية العربة The trolley problem واحدة من أشهر التجارب العقلية على الاطلاق فى فلسفة الاخلاق، علم النفس، علم الاعصاب، والعلوم المعرفية cognitive science قدمتها الفيلسوفة الانجليزية فيليبيا فوت Philippa Foot سنة 1967. التجربة عادة ما بتطرح بالشكل الاتى تخيل ان فى عربية ترولى ماشية على القضبان قدمها فى خمس رجالة مربوطين على القضيب وما يقدروش يتحركوا، انت واقف جنب دراع لو شديتة هيحول القضبان والعربية هتتحرك على قضيب تانى ومش هتخبط الخمس رجالة! لكن قبل ما تشد الدراع اكتشفت ان فى راجل على القضيب التانى، قدامك واحد من أختيارين الاول انك ماتعملش اى حاجة وتسيب الترولى يموت الخمس رجالة على القضيب الاول، والتانى انك تشد الدراع وتحول الترولى للقضيب التانى اللى هيسبب ان الترولى يخبط شخص واحد ويقتلة .. ياترى انهى اختيار الاخلاقى؟! … لو كنت بتعتنق نموذج أخلاقى مبنى على أخلاق المنفعة هيكون عليك واجب أخلاقى مُلزم انك تشد الدراع وتنقذ حياة الخمس افراد فى مقابل التضحية بحياة فرد واحد (تعظيم المنفعة لأكبر عدد ممكن من الناس)! ..

images (2)

لو حاسس ان القرار  صعب، فكر فى التعديل ده على التجربة، تخيل انت واقف على كوبرى وشايف الترولى هيعدى من تحت الكوبرى رايح فى اتجاة الخمس رجالة المربوطين على القضيب، فى امكانك انك توقف الترولى لو حطيت حاجة تقيلة قوى قدامة! فى الوقت اللى لاحظت فية ان فى راجل تخين جدا واقف جنبك لو زقيتة من على الكوبرى هيقع قدام الترولى ويوقفه وتنقذ حياة الخمس افراد لكن الشخض التخين ده هيموت! هل ياترى هتعمل كده؟! .. فى معظم استطلاعات الرأى Survey 90% من الناس فى التجربة الاولى اختاروا انهم يشدوا الدراع ويقتلوا واحد فى مقابل انقاذ حياة خمس أشخاص، لكن لما تم تعديل التجربة الغلابية قررت انها ماتزقش الراجل التخين وتقف تتفرج على الترولى وهو بيقتل الخمس رجالة! اللى دفع الفلاسفة انهم يحاولوا يفهموا الفرق الاخلاقى فى تصرف الناس فى الحالتين، فرق اساسى ومهم هو ان فى الحالة الاولى الفرد ما كانش عندة نية مُبيتة انه يأذى اى حد، موت الشخص اللى واقف على القضيب كان مجرد عرض جانبى لتحويل مسار الترولى عن القضيب اللى علية الخمس اشخاص! اما فى الحالة التانية النية المُبيتة بالاذية كانت جزء اساسى من خطة الشخص لأنقاذ الخمس افراد! بمعنى تانى فى الحالة التانية الشخص نوى انه يقتل فرد واحد عشان ينقذ خمسة وده فعل غير اخلاقى، اما فى الحالة الاولى الشخص ماكنش عندة نية القتل! الحالة دى تطبيق لمبدأ مهم فى الفلسفة اسمه مبدأ التأثير المزدوج Principle of double effect اللى بيقول ان الفرد ممكن يقوم بفعل له اعراض جانبية سيئة، لكنه انه يتعمد نية الاذى حتى ولو لغرض نبيل يعتبر امر خاطئ! تعديل تالت على التجربة العقلية هو لو عرفت ان الشخص التخين اللى واقف جنبك على الكوبرى شخص شرير فى الواقع هو اللى ربط الخمس اشخاص على القضيب عشان يموتهم! فى الحالة دى دفع الشخص الشرير قدام الترولى عشان تنقذ حياة الخمس اشخاص مش بس بيعتبر عمل أخلاقى لكنه حتمى! عالم النفس الامريكى جوشوا غرينJoshua Greene مع مجموعة من الباحثين درسوا طبيعة الشبكة العصبية للمخ وقت صناعة القرار فى التجارب العقلية دى باستخدام التصوير تصوير بالرنين المغناطيسي الوظيفي fMRI ووجدوا ان تجربة الراجل التخين بتثير تأثير عاطفى كبير واللى بيأدى لتنشيط مناطق فى المخ مرتبطة بحالات الاختلاف والصراع اللى بيوضح ان فى صراع داخلى بين الجانب العاطفى والعقلى داخل المخ! المثير فى التجربة ان فى سنة2013 ورقة بحثية نشرت تحت عنوان ماذا يعتقد الفلاسفة What do Philosophers Believe?  وضحت ان 68% من الفلاسفة المعاصرين هيشدوا الدراع ويضحوا بحياة شخص فى مقابل انقاذ حياة خمسة، و8% مش هيشدوا الدراع، وال24% الباقيين اما عندهم رؤية مختلفة او ماقدروش يردوا! ده يديك تصور قوى ان فلسفة المنفعة هى الصورة الاخلاقية المسيطرة مش بس على عقول العامة لكن كمان على العقول الاكثر تعقيدا! دلوقتى تخيل لو استبدلنا الشخص اللى بيصنع القرار فى التجارب اللى فاتت دى بانسان الى ياترى النتائج هيكون شكلها ايه؟! تفتكر الانسان الالى هيزق الراجل التخين من على الكوبرى عشان ينقذ حياة الخمس افراد؟ فى الغالب الاجابة هتعتمد على ازاى الانسان الالى ده مُبرمج انه يصنع القرارات الاخلاقية! لكن فى الحقيقة التجربة دى مش مجرد تجربة عقلية فى عالم الذكاء الاصطناعى AI لان فى الوقت الحالى القطارات اللى بتتحرك بدون سواق Driverless Trains موجودة فى كتير من مطارات العالم وكتير من خطوط المترو فى اوروبا وامريكا بتشتغل بدون سائق، مش بس كده السيارات ذاتية التحكم autonomous cars اصبحت فى اطار التجريب دلوقتى ومن المتوقع انها تكون على الطرق فى خلال الخمس سنين الجاية!

انظمة التحكم الالى اللى هتتحكم فى الالات دى لابد وان يكون عندها قدرة على صناعة قرارات اخلاقية من النوع ده خصوصا لو اتحطت فى اختيار صعب لابد وانها تأذى فيه انسان! عملاق تكنولوجيا المعلومات جوجل Google بدأت الشغل على مشروع عربية ذاتية القيادة Google driverless car سنة 2005 ومن المتوقع طبقا لجوجل انها تكون فى الاسواق فى خلال الخمس سنين الجاية! التشريعات القانونية الخاصة بالعربيات ذاتية القيادة بدأت بالفعل تتناقش ويتوافق عليها فى أمريكا! فى خلال حياتنا الحالية هنشوف الشوارع والطرق ملاينة بالعربيات ذاتية القيادة، وأشكالية العربة هتتنقل من مجرد تجربة عقلية، لأختبار صعب فى الحياة بيخوضة واحد من كائنات الذكاء الاصطناعى، لو قدام العربية انها تخبط خمس أطفال عدوا الشارع بالخطأ او انها تخبط الحيطة وتموتك وانت جواها .. تختار ايه؟ هل تكون متحيزة وتختار مصلحة قائد السيارة؟ ولا تختار أكبر قدر من المنفعة لأكبر عدد ممكن من الناس وتختار مصلحة الاطفال فى الشارع وتقرر تقتلك؟!  النموذج الاخلاقى وخورزميات صناعة القرار الاخلاقى Ethical Algorithms فى الالات دى بتعتمد بالدرجة الاولى على المصممين والمُبرمجين اللى بيشتغلوا عليها النهاردة وللأسف كتير منها انعكاس للنموذج الاخلاقى بتاع الانسان اللى بيقوم بعملية التصميم! لكن ده مش كفاية لان كتير من المواقف اللى هتتعرض ليها الالات دى مابتقعش فى اطار المواقف اللى ممكن يتعرض ليها انسان فى حياتة اليومية، ومن هنا ظهرت الحاجة لفرع جديد فى فلسفة الاخلاق بيبحث فى أخلاق الالات!

images (3) images

أخلاق التكنولوجيا Ethics of technology هو أحد فروع علم الأخلاق بيركز على الاشكاليات المتعلقة بالتكنولوجيا وعصر المعلومات! لفترة طويلة من الزمن الفكرة السائدة عن التكنولوجيا انها ما بتحتويش على مسائل أخلاقية، بما ان هدفها مجرد صنع الألات ووسائل تقنية! لكن كتير من الباحثين فى الوقت الحالى غيروا رأيهم وبيعتقدوا ان تقريبا كل اداة تكنولوجية بتأثر بشكل مباشر او غير مباشر فى المنظومة الاخلاقية للبشر بُناء على قواعد أخلاقية مُبرمجة عن طريق المصممين والمطورين! الفيلسوف الألمانى هانز جوناس Hans Jonas قدم أهتمامين رئيسين للأخلاق التكنولوجيا فى كتابة حتمية المسئولية: البحث عن الأخلاق فى عصر التكنولوجيا The Imperative of Responsibility: In Search of Ethics for the Technological Age سنة 1979 الاهتمام الاول هو الأخلاق المتعلقة بتطوير تكنولوجيا جديدة فى المجال ده بنبحث فى أخلاقيات امن الكمبيوتر computer security و فيروسات الكمبيوتر computer viruses وهل الاختراعات دى أخلاقيا صحيحة؟ او تطوير أسلحة نووية فعل اخلاقى ولا لأ؟ او الحكم الاخلاقى فى تطوير تكنولوجيا ممكن تهدر قدر كبير من الطاقة والمصادر؟ او حتى أخلاقيات تطوير الالات تستبدل العمال فى المصانع .. الخ. الأهتمام التانى بيبحث فى ازاى التكنولوجيا بتأثر على قدراتنا وقوتنا كبنى ادمين! يعنى على سبيل المثال التركيز هيكون على أخلاقيات تطويل العمر الانسانى او الاستنساخ Cloning وعمليات زرع الاعضاء Implantation، او فى مجال المعلومات التركيز بيكون على حماية الحرية الشخصية، وحرية التعبير فى عصر المعلومات والانترنت، أخلاقيات استخدام تكنولوجيات زى تحديد الهوية بموجات الراديو RFID .. الخ! فرع من فروع أخلاق التكنولوجيا هو أخلاق الذكاء الأصطناعى The Ethics of Artificial Intelligence بيركز على كائنات الذكاء الاصطناعى artificially intelligent beings زى الروبتات robots على سبيل المثال واللى بينقسم لفرعين رئيسين أخلاق المصمم roboethics واللى بيركز على  ان كانت تصرفات البشر أخلاقية وقت تصميم، تطوير، أستخدام، ومعاملة كائنات الذكاء الاصطناعى، مهندس الألكترونيات والباحث الايطالى جيانماركو فروجيو Gianmarco Veruggio قدم الفرع ده للمرة الأولى فى ورقة بحثية بعنوان خارطة طريق أخلاق المصمم The Roboethics Roadmap سنة 2002 وناقش فيها ازاى ممكن كائنات الذكاء الأصطناعى تفيد او تأذى البشر، كمان حقوق الانسان الالى Robots Rights او بمعنى تانى الالتزمات اللى المجتمع مسئول بيها تجاة اللالآت زيها زى حقوق البشر Human Rights وخقوق الحيوانات Animal Rights الحقوق دى ممكن تكون زى الحق فى الوجود والحق فى حرية التعبير،التفكير، المساوة امام القانون .. لو الافكار دى تبدو خيالية بالنسبة لك، ماتستغربس الافكار دى كانت محل نقاش مؤسسات ضخمة زى معهد المستقبل Institute for the Future فى أمريكا، ووزارة التجارة والصناعة Department of Trade and Industry فى أنجلترا. الخبراء فى المجال ده مازالوا مختلفين ان كان لابد من صياغة قوانين تمثل الحقوق دى فى وقت قريب ولا لأ؟ على اى حال المستقبل ده مش بعيد كتير لان طبقا لتنبئات العالم والمستقبلى راى كورزويل Ray Kurzweil الانسان الالى المحاكى للبشر humanoid robots هيكون متاح بحلول سنة 2020، أو فى اسوأ حال معظم العلماء بيشوفوا ان الانظمة المتقدمة دى هتكون متاحة فى خلال الخمسين سنة الجاية! الفرع التانى هو أخلاق الالات  Machine Ethicsاللى بيركز على التصرفات الأخلاقية للعميل الاخلاقى الأصطناعى artificial moral agents (AMA). او بمعنى تانى تصميم كائنات ذكاء أصطناعى عندها قدرة على التصرف الاخلاقى او على الاقل محاكاتة!

330px-Isaac.Asimov01 I_Robot_-_Runaround

مؤلف الخيال العلمى الامريكى اسحاق اسيموف Isaac Asimov طرح اول الفكرة بشكل مفصل لأول مرة فى تاريخ البشرية فى رواية أنا روبت I, Robot سنة 1942. اسيموف اقترح فى الرواية القوانين الثلاثة للروبتات Three Laws of Robotics كضوابط حول كيف يجب برمجة وصنع انظمة الذكاء الاصطناعى، واللى اصبحت الفكرة المسيطة على بقية أعمالة من وقتها فى محاولة لأختبار ان كانت القوانين التلاتة هتصمد امام الأشكاليات الاخلاقية وللا هتقدم تصرفات غير متوقعة، القوانين الثلاثة هى (1) لا يجوز لآلي إيذاء بشريّ أو السكوت عما قد يسبب أذًى له. (2) يجب على الآلي إطاعة أوامر البشر إلا إن تعارضت مع القانون الأول. (3) يجب على الآلي المحافظة على بقائه على وجوده طالما لا يتعارض ذلك مع القانونين الأول والثاني.

سنة 1985 اسيموف قدم القانون الرابع او القانون زيرو زى ما اطلق علية فى روايتة الروبتات والامبراطورية Robots and Empire (0) يجب على الآلى عدم ايزاء البشرية، وان كان بالتقاعس مما يسبب الضرر للبشرية! قوانين أسيموف كانت النواة لمئات الروايات وقصص الخيال العلمى، لكن الأهم انها لفتت نظر الفلاسفة والباحثين لأشكالية أخلاق الآلآت! سنة 2009 فى تجربة فريدة من نوعها فى أحد معامل الذكاء الاصطناعى فى سويسرا الباحثين طوروا مجموعة من الروبتات بقدرات تعاونية مع بعضها البعض، هدف كل روبوت هو البحث عن المصادر المفيدة وتجنب المصادر الضارة، كل روبوت كان عندة جهاز استشعار  Sensor وضوء ازرق، و 264 bit كود ثنائى Binary Code ممكن تعتبرها زى الجين البشرى Genome واللى بتتحكم فى ازاى الروبوت بيتنقل من حالة لحالة تانية! الجيل الاول من الروبتات اتبرمج انه يضئ الضئ الازرق لما يلاقى مصدر مفيد عشان تساعد بعضها انها تلاقى المصادر المفيدة! الروبتات اللى لقت المصادر المفيدة وسيطرت عليها اتكافئت بنقط ايجابية والروبتات اللى مالقتش غير المصادر الضارة اخذت نقط سلبية! الروبتات اللى حصلت على اعلى نتيجة من النقط تم عمل عملية تزاج عشوائية مابينها وناتج العملية دى كان جيل جديد من الكود الثنائى او الجينوم “او بصورة تانية جيل جديد”، بعد تسع أجيال الروبتات اصبحت ممتازة فى تحديد مكان المصادر المفيدة، وفى التعاون مع بعضها! لكن المشكلة الى ظهرت ان مع محدودية المصادر اصبح من الصعب السيطرة عليها نتيجة تزاحم الروبتات عليها حتى من الروبوت اللى لاقها فى البداية وادى اشارة لزمايلة عنها،  بعد 500 جيل 60% من الروبتات اتطور لانهم يخلى الضوء بتاعهم مطفى لما يلاقوا مصدر مفيد، عشان يقدروا يسطروا عليه لنفسهم بس (بمعنى تانى الروبتات اتعلمت انها تكذب على بعضها كمحاولة لتجميع اكبر عدد ممكن من المصادر المفيدة)، الاكتر من كده ان تلت الروبتات طور قدرة جديدة انه يبحث عن الروبتات الكذابة من خلال تجنب اشارة الضوء! التجربة دى توضح لك ان التصرفات اللى ليها صفة الاخلاقية مش بعيدة عن كائنات الذكاء الاصطناعى وزيها زى اى تصرف بشرى تانى ممكن تطويرها صناعيا او على الاقل محاكاتها! بعض الخبراء الاكاديمين مازلوا متشككين ومش مرتاحين من التزايد المستمرفى استخدام كائنات الذكاء الاصطناعى فى المعارك العسكرية، خصوصا لما الكائنات دى بيتاح ليها درجة من درجات التحكم الذاتى Autonomous Function اللى بيخلى الكائنات دى اكثر تعقيدا، واللى اكيد هيأثر على طبيعة القرارات المستقلة Autonomous Decisions اللى بتصنعها الكائنات دى وبيشكوا ان كانت هتكون قرارات تتسم بالاخلاقية ولالأ؟!

Veruggio@Sanremo040136042594_Russel_Norvig_AIAMA_v1.qxd:Layout 1

عالم الرياضيات،وعلوم الحاسوب ومؤلف روايات الخيال العلمى الامريكى فيونور فينجو Vernor Vingo فى مقال بحثى نشرة سنة 1993 بعنوان التفرد التكنولوجى القادم: كيفية البقاء على قيد الحياة فى عصر مابعد البشر The Coming Technological Singularity: How to Survive in the Post-Human Era أقترح ان غالبا ما فى لحظة هتيجى فى المستقبل وبعض أجهزة الكمبيوتر هتكون اذكى من البشر، واطلق على اللحظة دة لحظة “التفرد التكنولوجى The Singularity” وتوقع ان العصر ده هيكون خطر على وجود البشر! ومدرسة جديدة فى الفلسفة بدأت تتكون تحت اسم مدرسة التفرد التكنولوجى الفائق Singularitarianism بتحاول تبحث فى الوسائل والطرق اللى ممكن بيها تطوير الذكاء الاصطناعى الفائق لخدمة البشر بدل من تهديد وجودها، ده بيشمل أفكار زى دمج النظريات الاخلاقية التنظيمية Normative Ethics  اللى ناقشناها مع علوم الذكاء الاصطناعى Artificial Intelligence فى نوع جديد من العلوم بيطلق عليه علم الذكاء الاصطناعى الودى Friendly artificial intelligence! المجال هنا أضيق من انى أستفيض فى الكلام عن التفرد التكنولوجى الفائف، وعلوم الذكاء الاصطناعى الودية، لكن لو كنت من المهتمين بالمجال ده انصحك بقرائة واحد من أشهر الكتب فى مجال الذكاء الاصطناعى “الذكاء الاصطناعى: طريقة حديثة Artificial Intelligence: A Modern Approach” فى الاصدار الثالث من المرجع اللى صدر سنة 2009 المؤلفين ناقشوا الافكار دى بتفصيل أكبر!

download (1)

فى نهاية كتابهم الاكثر من رائع “الآلآت أخلاقية: تعليم الروبتات الصواب من الخطأ Moral Machines: Teaching Robots Right from Wrong” اللى نُشر سنة 2008 الفيلسوف الامريكى المعاصر كولين الن Colin Allen وفيلسوف الاخلاق المعاصر ويندل ولاش Wendell Wallach أقترحوا ان محاولة تعليم كائنات الذكاء الاصطناعى الصواب من الخطأ هيطور فهمنا كبشر لطبيعة الاخلاق البشرية، عن طريق مساعدتنا فى التوفيق وسد الفجواب بين النظريات الأخلاقية التنظيمية Normative Ethics زى أخلاق الفضيلة، أخلاق الواجب، وأخلاق المنفعه وتطوير منظومة عملية، تكنولوجية لأجراء التجارب الأخلاقية، على سبيل المثال التطور السريع فى علوم الذكاء الاصطناعى طرح أشكاليات جديدة تماما على فلاسفة الاخلاق زى اى نوع من خوارزميات التعلم الالى Learning Algorithms المفروض نستخدمها فى برمجة كائنات الذكاء الاصطناعى لان هيكون ليها دور كبير فى طبيعة القرارات اللى هتصنعها الكائنات دى! هل المفروض نستخدم خوارزميات شجرة القرار decision trees، ولا خوارزميات الشبكات العصبية Neural Networks ولا الخوارزميات الجينية Genetic Algorithms. فيلسوف الاخلاق السويدى المعاصر نيك بوستروم Nick Bostrom فى ورقة بحثية بعنوان “الأشكاليات الأخلاقية فى علوم الذكاء الاصطناعى المتقدمة Ethical Issues in Advanced Artificial Intelligence” سنة 2003 طرح تخوفة المشروع ان التطور السريع اللى من الصعب ايقافة فى علوم الذكاء الاصطناعى ممكن يكون السبب فى انقراض البشر فى وقت من الاوقات! وان كائنات الذكاء الاصطناعى الفائق General Superintelligence هيكون عندها القدرة على صنع خطط واستراتيجيات خاصة بيها بشكل ذاتى ِAutonomous! وبما ان الكائنات دى عندها قدرة حسابية غير عادية تفوق قدرتنا البشرية بمراحل، ومنفذ لبحر من المعلومات، ولسهولة تحويل نظريات أخلاقية زى نظرية المنفعة اللى خوارزميات وبرامج كمبيوتر هتخلى المنظومة الاخلاقية اللى بتتصرف بيها الكائنات دى هى منظومة تعظيم المنفعة، حتى لو كان ده فى معناة ابادة الجنس البشرى لتعظيم المنفعة والصالح العام!

Movie_poster_i_robot

القصة اللى بدأنا بيها مقتبسة عن فيلم الخيال العلمى الامريكى الرائع أنا، روبوت I, Robot اللى قام ببطولتة ويل سميثWill Smith سنة 2004 ومستوحى عن قصة قصيرة بنفس الاسم لكاتب الخيال العلمى أسحاق اسيموف Isaac Asimo. من خلال القصة دى حاولت اقدملك الاشكالية الاخلاقية اللى بتقابها نظرية المنفعة ونتيجة استخدام تبعيات الافعال كوسيلة لتقييم أخلاقية الفعل، من خلال تطبيقها فى عالم مستقبلى خيالى كائنات الذكاء الاصطناعى جزء اصيل وجوهرى منه! لكن العالم الخيالى ده مش بعيد الحدوث وقريب من الواقع اللى بنعيشة النهاردة مع التقدم السريع للعلم والتكنولوجيا، وازدياد مساحة القرارات اللى بتصنعها الالات بشكل ذاتى كل يوم! البشر أصحبت فى سباق مع الزمن فى محاولة لفهم طبيعة القرارات والاحكام الاخلاقية قبل ما كائنات الذكاء الاصطناعى تاخد قرار فى يوم من الايام بأبادة الجنس البشرى لتعظيم المنفعة!

أخلاق المنفعة فكرة بسيطة بتقول ان قيمة الفعل الأخلاقية بتتحدد بس بُناء على المنفعة العامة اللى بيساهم بيها الفعل فى تعظيم السعادة أو المتعة لأكبر عدد ممكن من الناس! المنفعة الكلية هنا هى جوهر الفعل الأخلاقى، أكبر قدر ممكن من السعادة لأكبر عدد ممكن من الناس! المنفعة Utility اللى اتسمت النظرية بيها، هى مقياس أقتصادى للأشباع النسبى ، او الرغبة فى أستهلاك السلع، وعشان كده نقدر نقول ان أخلاق المنفعة منهج كمى َQuantitative أختزالى Reductionistic للأخلاق. أخلاق المنفعة بدأت من فكرة أساسية وهى ان السعادة او المتعة قيمة جوهرية Intrinsic Value  وان اى شئ تانى مجرد سلعة وسيطة  Instrumental Goodبغرض تعظيم السعادة، لكن ياترى هل المنطق الاختزالى دى كفاية لصناعة الفعل الاخلاقى؟!

ودلوقتى .. فكر فى القرارات الأخلاقية اللى اخدتها مؤخرا .. هل قيمة القرار الاخلاقى مجرد قيمة فى تبعياتة؟ .. أو يمكن فى المنفعة اللى بيسببها الفعل؟ .. هل من الممكن وضع قيمة رقمية على كل فعل بناخدة فى حياتنا؟ .. أو أستخدام منطق كمى لحساب المنفعة الناتجة عن الفعل؟ .. وياترى اية النموذج الاخلاقى اللى المفروض نصمم كائنات الذكاء الاصطناعى بُناء علية؟ .. هل تعظيم المنفعة قانون كافى لصناعة ألالات أخلاقية؟ .. حتى وان كان تمن تعظيم المنفعة فى يوم من الايام هو التضحية بالجنس البشرى!؟ … فكر تانى

Download MP3:https://app.box.com/s/kru3gy4yj6h7szhdbfqw

فى الحلقة الجاية ..  هتكون مُستنسخ من البشر .. عايش فى المستقبل وسط ملايين النسخ البشرية مستنين اللحظة اللى هتختار البشر منكوا واحد عشان تنهى حياتة و تستخدم أعضائة البشرية! ياترى هتخصع وتنتظر حكم الاعدام الغير عادل؟ ولا هتقاوم المصير المحتوم؟! … عن أخلاق المُساواة و الحقوق … أخلاق الرعاية … والأخلاق النسوية .. هنتفلسف المرة الجاية

من دلوقتى للحلقة الجاية .. عيش الحياة بفلسفة

زود معلوماتك:

المدرسة العواقبية Consequentialism

http://en.wikipedia.org/wiki/Consequentialism

جيرمى بينثام Jeremy Bentham

http://en.wikipedia.org/wiki/Jeremy_Bentham

جون ستيوارت ميل John Stuart Mill

http://en.wikipedia.org/wiki/John_Stuart_Mill

موزى Mozi

http://en.wikipedia.org/wiki/Mozi

فلسفة الأخلاق الموهية Mohist ethics

http://en.wikipedia.org/wiki/Mohism

نظرية المنفعة Utilitarianism  

http://en.wikipedia.org/wiki/Utilitarianism

مبادئ الأخلاق والتشريع The Principles of Morals and Legislation

http://www.amazon.com/Principles-Morals-Legislation-Great-Philosophy/dp/0879754346

مذهب المتعة Hedonism  

http://en.wikipedia.org/wiki/Hedonism

أحصاء المتعة Hedonistic Calculus

http://en.wikipedia.org/wiki/Felicific_calculus

التقييم العادل للمصالح The Equal Consideration of Interests

http://en.wikipedia.org/wiki/Equal_consideration_of_interests

بيتر سينجر Peter Singer

http://en.wikipedia.org/wiki/Peter_Singer

الأخلاق العملية Practical Ethics

http://en.wikipedia.org/wiki/Practical_Ethics

برنارد ويليامز Bernard Williams

http://en.wikipedia.org/wiki/Bernard_Williams

مع وضد المنفعة Utilitarianism: For and Against http://books.google.com/books/about/Utilitarianism.html?id=J0w3ER2fWv4C

أشكالية العربة The trolley problem

http://en.wikipedia.org/wiki/Trolley_problem

فيليبيا فوت Philippa Foot

http://en.wikipedia.org/wiki/Philippa_Foot

ماذا يعتقد الفلاسفة What do Philosophers Believe?  

http://philpapers.org/archive/BOUWDP

جوشوا غرينJoshua Greene

http://en.wikipedia.org/wiki/Joshua_Greene_%28psychologist%29

مبدأ التأثير المزدوج Principle of double effect

http://en.wikipedia.org/wiki/Principle_of_double_effect

مشروع عربية ذاتية القيادة Google driverless car

https://www.youtube.com/watch?v=CqSDWoAhvLU

أخلاق التكنولوجيا Ethics of technology

http://en.wikipedia.org/wiki/Ethics_of_technology

هانز جوناس Hans Jonas

http://en.wikipedia.org/wiki/Hans_Jonas

أخلاق الذكاء الأصطناعى The Ethics of Artificial Intelligence

http://en.wikipedia.org/wiki/Ethics_of_artificial_intelligence

جيانماركو فروجيو Gianmarco Veruggio

http://www.veruggio.it/

اسحاق اسيموف Isaac Asimov

http://en.wikipedia.org/wiki/Isaac_Asimov

القوانين الثلاثة للروبتات Three Laws of Robotics

http://en.wikipedia.org/wiki/Three_Laws_of_Robotics

https://www.youtube.com/watch?v=AWJJnQybZlk

علم الذكاء الاصطناعى الودى Friendly artificial intelligence

http://en.wikipedia.org/wiki/Friendly_artificial_intelligence

الذكاء الاصطناعى: طريقة حديثة Artificial Intelligence: A Modern Approach

http://en.wikipedia.org/wiki/Artificial_Intelligence:_A_Modern_Approach

الآلآت أخلاقية: تعليم الروبتات الصواب من الخطأ Moral Machines: Teaching Robots Right from Wrong

http://www.amazon.com/Moral-Machines-Teaching-Robots-Right/dp/0199737975

أنا، روبوت I, Robot

https://www.youtube.com/watch?v=1H3Cy09LwQM

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s