اخلاق هوش مصنوعی
اخلاق هوش مصنوعی (به انگلیسی: Ethics of artificial intelligence) بخشی از اخلاق تکنولوژی است که به صورت خاص به ربات و هوش مصنوعی مربوط میشود، و بیشتر راجع به نحوه رفتار و عملکرد انسان با هوش مصنوعی و بالعکس آن است. در اخلاق هوش مصنوعی به بررسی حقوق رباتها و درستی یا نادرستی بر جایگزین شدن آنها در نقشهای انسانی میپردازیم.
اصول اخلاقی ماشین
ویرایشاخلاق ماشین(یا اخلاقیات ماشینی) حوزه ای تحقیقاتی است که مسئله اش طراحی عامل های اخلاقی مصنوعی، ربات ها یا کامپیوتر های با هوش مصنوعی است که بهطور اخلاقی رفتار میکنند.[۱][۲][۳][۴] برای به حساب آوردن ذات و طبیعت این عامل ها، پیشنهاد شده است که ایده های فلسفی خاصی در نظر گرفته شوند، مثلا دسته بندی های استاندارد عاملیت، عاملیت عقلانی، عاملیت اخلاقی و عاملیت مصنوعی، که به مفهوم عامل های اخلاقی مصنوعی مرتبط اند.[۵]
در حال حاضر حول انجام آزمایش هایی برای دیدن اینکه آیا هوش مصنوعی توانایی تصمیم گیری اخلاقی دارد یا نه، مباحثاتی وجود دارد. آلن وینفیلد معتقد است که آزمایش تورینگ ایراد دارد و سطح نیازمندی های آن برای اینکه یک هوش مصنوعی در آن قبول شود پایین است.[۶] یک آزمایش جایگزین پیشنهادی آزمایش اخلاقی تورینگ است، که با انتخاب چند قاضی برای تصمیم گیری درمورد اینکه هر تصمیم هوش مصنوعی اخلاقی است یا نه، آزمایش فعلی را بهبود می بخشد.[۶] هوش مصنوعی نورومورفیک می تواند یک راه ساختن ربات های اخلاق مدار باشد، زیرا هدف آن پردازش اطلاعات به مانند انسان ها، بهطور غیر خطی و به همراه میلیون ها نورون مصنوعی به هم متصل است.[۷] بهطور مشابه، تقلید مغزیِ کلی(اسکن کل ساختار مغز و شبیه سازی آن در سخت افزار دیجیتالی) اصولا باید منجر به ساخت ربات های انسان نما شود که در نتیجه، توانایی کنش اخلاقی دارند.[۸] همینطور مدل های زبانی بزرگ می توانند قضاوت های اخلاقی انسان را تخمین بزنند.[۹] بهناچار چنین چیزی درمورد محیطی که این ربات ها در آن درباره ی جهان یاد می گیرند و اینکه اخلاقیات چه کسی را به ارث می برند، پرسش و مسئله را طرح می کند. یا این سؤال که آیا آن ها ضعف های انسانی را هم در خود توسعه می دهند؟ ضعف هایی مانند خودخواهی، رویکرد بقامحورانه ی شدید، عدم انسجام، عدم حساسیت به مقیاس و غیره.
در کتاب "ماشین های اخلاقی: آموزش درست و غلط به ربات ها"[۱۰]، وندل والاک و کولین الن نتیجه می گیرند که تلاش ها برای آموزش درست و غلط به ماشین ها، احتمالا باعث پیشرفت فهم ما از اصول اخلاقی انسانی می شود که این از طریق انگیزه بخشیدن به انسان ها برای شناسایی حفره های تئوری اخلاق هنجاری و فراهم آوردن جایگاهی برای آزمون و خطا صورت می گیرد. به عنوان مثال، نظریه پردازان اخلاق هنجاری را به مسئله ای جنجالی حول انتخاب اینکه کدام یک از الگوریتم های یادگیری به خصوص ماشین باید استفاده شود معرفی کرده است. نیک باستروم و الیزر یودکوفسکی استدلال میکنند که برای تصمیم های ساده، درخت های تصمیم واضح تر از شبکه های عصبی و الگوریتم های ژنتیک هستند.[۱۱] در حالی که کریس سنتوس-لنگ به نفع یادگیری ماشین استدلال می کند. استدلال او بر این مبنا است که باید به هنجار های هر نسل این اجازه را داد که تغییر کنند و اینکه شکست طبیعی در ارضای کامل این هنجار های به خصوص، در کمتر آسیب پذیر کردن انسان ها نسبت به هکر های تبهکار ضروری و حیاتی است.
روباتیک
ویرایشاصطلاح «رباتیک» در سال ۲۰۰۲ ابداع شد. با اشاره به سیرت ساختن، شکل دادن، رفتار کردن و استفاده کردن از رباتها.[۱۲] و به عبارت دیگر دربارهٔ این که چگونه رباتها میتوانند برای انسان مفید یا مضر باشند صحبت میکند. بنابر پیشبینی و با توجه به روند زیاد شدن تعداد رباتها گمان میرود که تا سال ۲۰۳۰ تعداد رباتها به شکل قابل توجهی زیاد شود همانطور که رشد ۲۴ درصدی را در سال ۲۰۱۴ در تعداد رباتها مشاهده شد.[۱۳]
حقوق رباتها
ویرایشحقوق رباتها انتظار اخلاقی آنها در قبال جامعه و دیگر ماشینها است و به مانند حقوق بشر یا حقوق حیوانات میباشد[۱۴] و ممکن است شامل حق زندگی، آزادی، آزادی اندیشه، آزادی بیان و برابری در برابر قانون باشد.[۱۵] این موضوع توسط اندیشکده موسسهای برای آینده [۱۶] و وزارت تجارت و صنعت انگلستان در حال پیگیری است.[۱۷]
کارشناسان اختلاف نظر دارند که آیا قوانین خاص و دقیق به زودی مورد نیاز خواهد بود یا با آسودگی در آینده دور میتوان به آن فکر کرد.[۱۷] گلن مک گی گفته بود به نظر میرسد تا سال ۲۰۲۰ ممکن است به اندازه کافی روبات انسان نما وجود داشته باشد.[۱۸] ری کورزویل تاریخ احتمالی این واقعه را در سال ۲۰۲۹ میبیند.[۱۹] گروه دیگری از دانشمندان در جلسه ای در سال ۲۰۰۷ به این نتیجه رسیدند که حداقل ۵۰ سال طول خواهد کشید تا بشر بتواند سیستمی با هوش سطح بالا تولید کند و موجودات هوشمند انسان ساز وجود داشته باشند.[۲۰]
قوانین سال ۲۰۰۳ مسابقه جایزه لوبنر به صراحت این مشکل را دربارهٔ مالکیت و حقوق رباتها مطرح کرده بود:
قانون شماره ۶۱. اگر در هر سالی، یک پروژه نرمافزار متن باز وارد شده از طرف دانشگاه سوری یا دانشگاه کمبریج برنده مدال نقره یا مدال طلا شود، آنگاه مدال و جایزه نقدی مسابقه به افرادی اهدا خواهد شد که مسئولیت توسعه آن پروژه یا نرمافزار را داشتهاند. اگر هیچ فردی به این عنوان تشخیص داده نشد یا اختلاف نظری میان تعداد دو یا بیشتر کاندیدا برای مسئول بودن پروژه وجود داشت. مدال و جایزه نقدی نگه داشته خواهد شد تا زمانی که آن پروژه به صورت قانونی دارای صاحب شود و آنگاه مدال و جایزه به صورت قانونی اهدا خواهد شد.[۲۱]
تهدید انسان
ویرایشتهدید حریم خصوصی
ویرایشالکساندر سولژنیتسین در رمان اولین دایره تکنولوژی تشخیص گفتار را توصیف کرد که در خدمت حکومت استبدادی بود و مکالمات انسانها را تهدید میکرد.[۲۲] اگر یک برنامه هوش مصنوعی وجود داشته باشد که توانایی درک طبیعی زبان و گفتار (مثلاً زبان انگلیسی) را داشته باشد پس به صورت نظری با قدرت پردازش مناسب میتواند به هر مکالمه تلفنی گوش بدهد و هر ایمیلی را در جهان بخواند و آن را درک کند و به برنامه اپراتور دقیقاً آنچه گفته شدهاست و دقیقاً آن کس که آن را گفتهاست را گزارش دهد. برنامه هوش مصنوعی مانند این مورد میتواند به دولتها یا نهادها کمک کند تا مخالفان خود را سرکوب کنند و کاملاً یک تهدید برای حریم خصوصی محسوب میشود.
تهدید نسل بشر
ویرایشهمانطور که در بسیاری از فیلمها و داستانهای علمی تخیلی دیده میشود. همواره فکر تهدید نسل بشر توسط رباتها در هنگام بلوغ فکری و هوشی آنها بعد از مطرح شدن هوش مصنوعی وجود داشته. اما بعد از انتشار برخی از پیشبینیها مانند جایگزین شدن ۴۵ درصدی سربازان انسانی نظامی به سربازان ربات تا سال ۲۰۲۵ این نگرانیها شکل جدی تری به خود گرفت.[۲۳] از آن جا که تا سال ۲۰۳۰ احتمال دارد درصد بسیار زیادی از کارگران و مجریان اجتماع رباتها باشند در صورت شورش یا اغتشاشی از جانب آنها ممکن است نسل و نژاد انسان به خطر بی افتد.[۲۴][۲۵] در این صورت شاید باید قوانینی مبنی بر محدود کردن دایره تفکر، احساس، خودمختاری و آزادی رباتها بنا گذاشت.[۲۶]
تهدید کرامت انسانی
ویرایشیوسف ویزینبام در سال ۱۹۷۶ بیان کرد که تکنولوژی هوش مصنوعی نباید به جای انسان در موقعیتهای که نیاز به توجه و مراقبت و احترام دارند استفاده شوند مانند هر یک از این موارد:
- یک نماینده خدمات مشتری (در حال حاضر از تکنولوژی هوش مصنوعی برای تلفنهای گویا استفاده میشود)
- یک درمانگر
- دایه برای افراد مسن یا کودکان
- یک سرباز
- یک قاضی
- یک افسر پلیس
ویزینبام توضیح میدهد که ما در این موقعیتها نیاز به احساس همدلی و درک متقابل از فرد داریم. اگر در این کارها ماشینها جای انسان را بگیرند ما خود را نسبت به آنها بیگانه میدانیم، احساس کم ارزشی و فرسودگی میکنیم. هوش مصنوعی اگر در این راه استفاده شود یک تهدید برای کرامت انسانی محسوب میشود.[۲۷]
پاملامککوردوک در هنگام سخنرانی با زنان بیان کرد "من میخواهم شانسم را با یک کامپیوتر بی طرف امتحان کنم " که به این اشاره میکرد که قضاوت یک کامپیوتر به عنوان یک قاضی یا پلیس بیطرف است و غرایز انسانی در آن دیده نمیشود.[۲۷] بنیانگذار هوش مصنوعی جان مک کارتی نتیجهگیری اخلاقی ویزینبام را نقد میکند. "هنگامی که اخلاقیات انسان مبهم و ناکامل است، موجب میشود که گاهی استبداد را فرا خواند ".
بیل هیبارد[۲۸] مینویسد: «کرامت انسانی مستلزم آن است که ما برای خلاص شدن از جهل نسبت به موجودات جهان تلاش کنیم و هوش مصنوعی برای این تلاش لازم است.»
بیل هیبارد میگوید که به دلیل این که هوش مصنوعی تأثیر عمیقی بر انسانیت دارد، بنابراین توسعه دهندگان هوش مصنوعی نماینده انسانیت در آینده هستند و به همین دلیل باید تعهد اخلاقی آنها در تلاششان به وضوح مشخص باشد.[۲۹] بن گویرتزل و دیوید هارت OpenCog را به عنوان یک منبع باز برای توسعه هوش مصنوعی ایجاد کردند.[۳۰] OpenAI یک شرکت تحقیقاتی هوش مصنوعی غیرانتفاعی ایجاد شده توسط ایلان ماسک، سام آلتمن و افرادی دیگر است که به منظور توسعه هوش مصنوعی به صورت منبع باز برای بهبود آینده بشریت فعالیت میکند.[۳۱] و همچنین تعداد بسیار زیادی شرکتهای منبع باز دیگر برای این اهداف وجود دارند.
جستارهای وابسته
ویرایش- آگاهی مصنوعی
- هوش مصنوعی عمومی
- ایثار مؤثر
- وجود خطر
- وجود خطر از هوش مصنوعی پیشرفته
- فلسفه هوش مصنوعی
- دیدگاه هوبرت دریفوس به هوش مصنوعی
- محققان
- سازمان
پانویس
ویرایش- ↑ Anderson. "Machine Ethics". Archived from the original on 28 September 2011. Retrieved 27 June 2011.
- ↑ Anderson, Michael; Anderson, Susan Leigh, eds. (July 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2.
- ↑ Anderson, M.; Anderson, S.L. (July 2006). "Guest Editors' Introduction: Machine Ethics". IEEE Intelligent Systems. 21 (4): 10–11. doi:10.1109/mis.2006.70. S2CID 9570832.
- ↑ Anderson, Michael; Anderson, Susan Leigh (15 December 2007). "Machine Ethics: Creating an Ethical Intelligent Agent". AI Magazine. 28 (4): 15. doi:10.1609/aimag.v28i4.2065. S2CID 17033332.
- ↑ Boyles, Robert James M. (2017). "Philosophical Signposts for Artificial Moral Agent Frameworks". Suri. 6 (2): 92–109.
- ↑ ۶٫۰ ۶٫۱ Winfield, A. F.; Michael, K.; Pitt, J.; Evers, V. (March 2019). "Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue]". Proceedings of the IEEE. 107 (3): 509–517. doi:10.1109/JPROC.2019.2900622. ISSN 1558-2256. S2CID 77393713.
- ↑ Al-Rodhan, Nayef (7 December 2015). "The Moral Code". Archived from the original on 2017-03-05. Retrieved 2017-03-04.
- ↑ Sauer, Megan (2022-04-08). "Elon Musk says humans could eventually download their brains into robots — and Grimes thinks Jeff Bezos would do it". CNBC (به انگلیسی). Retrieved 2024-04-07.
- ↑ Anadiotis, George (April 4, 2022). "Massaging AI language models for fun, profit and ethics". ZDNET (به انگلیسی). Retrieved 2024-04-07.
- ↑ Wallach, Wendell; Allen, Colin (November 2008). Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press. ISBN 978-0-19-537404-9.
- ↑ Bostrom, Nick; Yudkowsky, Eliezer (2011). "The Ethics of Artificial Intelligence" (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Archived (PDF) from the original on 2016-03-04. Retrieved 2011-06-22.
- ↑ Veruggio, Gianmarco (2007). "The Roboethics Roadmap" (PDF). Scuola di Robotica: 2. Archived from the original (PDF) on 15 August 2011. Retrieved 28 March 2011.
{{cite journal}}
: Cite journal requires|journal=
(help) - ↑ «Statistics - IFR International Federation of Robotics». www.ifr.org. بایگانیشده از اصلی در ۲۷ مارس ۲۰۱۶. دریافتشده در ۲۰۱۶-۰۶-۲۷.
- ↑ Evans, Woody (2015). "Posthuman Rights: Dimensions of Transhuman Worlds". Universidad Complutense Madrid. Retrieved 7 April 2016.
{{cite journal}}
: Cite journal requires|journal=
(help) - ↑ The American Heritage Dictionary of the English Language, Fourth Edition
- ↑ "Robots could demand legal rights". BBC News. December 21, 2006. Retrieved January 3, 2010.
- ↑ ۱۷٫۰ ۱۷٫۱ Henderson, Mark (April 24, 2007). "Human rights for robots? We're getting carried away". The Times Online. The Times of London. Archived from the original on 17 May 2008. Retrieved May 2, 2010.
- ↑ McGee, Glenn. "A Robot Code of Ethics". The Scientist. Archived from the original on 9 April 2011. Retrieved 5 June 2016.
- ↑ Kurzweil, Ray (2005). The Singularity is Near. Penguin Books. ISBN 0-670-03384-7.
- ↑ The Big Question: Should the human race be worried by the rise of robots?, Independent Newspaper,
- ↑ Loebner Prize Contest Official Rules — Version 2.0 بایگانیشده در ۳ مارس ۲۰۱۶ توسط Wayback Machine The competition was directed by David Hamill and the rules were developed by members of the Robitron Yahoo group.
- ↑ (McCorduck 2004, p. 308)
- ↑ "تهدید نژاد انسان به وسیله ربات ها".
- ↑ Naughton، John (۲۰۱۲-۱۲-۰۲). «Could robots soon add to mankind's existential threats?». the Guardian. دریافتشده در ۲۰۱۶-۰۶-۲۷.
- ↑ «Is Artificial Intelligence Really A Threat To Humanity?». ۲۰۱۵-۰۸-۲۸. دریافتشده در ۲۰۱۶-۰۶-۲۷.
- ↑ «Google developing 'kill switch' to stop robot uprising against humans». دریافتشده در ۲۰۱۶-۰۶-۲۷.
- ↑ ۲۷٫۰ ۲۷٫۱ Joseph Weizenbaum, quoted in (McCorduck 2004، صص. 356, 374–376)
- ↑ Hibbard, Bill (2014): "Ethical Artificial Intelligence".
- ↑ Open Source AI.
- ↑ OpenCog: A Software Framework for Integrative Artificial General Intelligence.
- ↑ Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free Cade Metz, Wired 27 April 2016.
پیوند به بیرون
ویرایش- رباتیک: اخلاق در هوش مصنوعی. «چهار محققان برجسته به اشتراک گذاشتن نگرانیهای خود را و راه حل برای کاهش خطرات اجتماعی از ماشینهای هوشمند است.» طبیعتبا ۵۲۱, ۴۱۵–۴۱۸ (۲۸ آوریل ۲۰۱۵) doi:10.1038/521415a
- هوش مصنوعی موضوعات در اخلاق
- حاکم کشنده رفتار: تعبیه اخلاق در ترکیبی مشورتی/واکنش ربات معماری
- مقاله: فلسفه آگاهی و اخلاق در هوش مصنوعی
- 3 قوانین نا امن کمپین - آسیموف قوانین & I, Robot
- اخبار بیبیسی: بازی را در زندگی خود
- کسانی که ترس از روبات ؟ بایگانیشده در ۲۲ مارس ۲۰۱۸ توسط Wayback Machine با یک مقاله در بشریت ترس از هوش مصنوعی است.
- تاریخچه کوتاه از اخلاق کامپیوتر
- ASPCR - جامعه آمریکا برای جلوگیری از ظلم به روبات