دی داد

موقعیت:
/
/
منطق اولتیمات، تابع صمیمیت و اخلاق اولتیمات (183-004)
راهنمای مطالعه

نویسنده: دی داد

1395-03-02

منطق اولتیمات، تابع صمیمیت و اخلاق اولتیمات (183-004)

برای آنکه بتوانیم ماشین های خودآگاه طراحی کرده و بسازیم، در گام اول می بایست سیستم منطقی بوجود آورده که عملا شبیه سازی همان سیستمی باشد که آدمی بشکل طبیعی از آن استفاده می کند. این سیستم را من منطق غایی (Ultimate Logic) نامیده ام. اگر ماشینی به این نوع از منطق مجهز گردد، آنگاه برای آدمی امکان پذیر نیست تشخیص دهد که با چه موجودیتی در حال گفتگوست. آیا آن کسی که مثلا پشت تلفن در حال گفتگو با من است یک ماشین است یا یک آدم؟!

ذات روبات های مجهز گشته به این سیستمِ منطقی، مبتنی بر اصل یادگیرندگی است. اصل یادگیرندگی ایجاب می کند که روبات قادر شود در گذر زمان با بکار انداختن امکانات ذهنی خود در انباشت های روانی (حافظه) خویشتن، رفتارهای خود را بشکل سازگاری تنظیم نماید. البته لازم به ذکر است که این مهم مستلزم داشتن جسمی همچون جسم آدمی نیز می باشد.

منظور من از واژه ی همچون در جمله ی قبل لزوما یک جسم بیولوژیکی نیست، بلکه جسمی است (مثلا بیومکاترونیکی) که هر 5 کانال حسی، شبیه به حواس 5 گانه ی آدمی را داشته باشد. دوربینی که همچون چشم تصویر را ضبط می کند، میکروفونی که همچون گوش صداها را بشنود و غیره… که البته آن ها می توانند گیرنده ی سایر جنبه های ماورای حس آدمی نیز باشند همچون امواج الکترومغناطیسی و رادیویی. جسم، ذهن و روان روبات برای رسیدن به سطح خودآگاهی اهمیت دارند.

قطعا رشد فناوری ها در آینده این امکان را برای ما فراهم می آورد که جسم روبات ها را منعطف تر و بهتر از جسم خودمان بسازیم. جسمی که حواس قوی تری از حواس آدمی و روانی (حافظه ای) بس ژرف تر از حافظه ی خودمان برای روبات به دست خواهد داد، اما آنچه که آدمی می بایست روی آن تمرکز کند، ذهن روبات هاست. این بخش از کار برعهده ی منطق دانان و ریاضیدانان است تا با مطالعه ی ساختارهای ذهن بشری و صورت بندی نظری آن ها همچون یک نقشه، بتوانند ذهن روبات ها را مهندسی کنند.

در بالا به تستی اشاره کردم که می بایست از روبات ها گرفته شود تا مطمئن شویم که آن ها به سطح خودآگاهی رسیده اند. این تست را من تست دیالوگ می نامم. وقتی از روباتی تست دیالوگ گرفته می شود، انسان های درگیر این آزمایش (مشاهده شوندگان) نبایستی بفهمند که با یک روبات در حال گفتگو هستند یا یک انسان. این مستلزم آن است (همانطور که پیشتر گفته شد) که روبات بسیار طبیعی از پس این گفتگو برآید.

یکی از توابعی که می بایست برای رفتار روبات طراحی شود، تابع صمیمیت است، تابعی که اجازه می دهد روبات با توجه به رفتارهای فرد مشاهده شونده (چه خصمانه و یا دوستانه) سطح صمیمیت خود را تغییر دهد. صمیمیت برای روبات عملا در قالب لحن (فرازبان) وی نهفته است و این دقیقا همچون صمیمیت آدمیست. لحن ها مسایلی روانشناختی هستند و می توانند معنایی را فراتر از ساختار منطقی زبان (دستور) به مخاطب القا کنند.

روبات ها برای رسیدن به لحن، نیازمند شبیه سازی صمیمیت انسان ها هستند و رسیدن به این مرحله ابتداء به ساکن نیست. یا اینکه می بایست روبات ها را پس از ساختن همچون یک کودک به دبستان برده و در میان آدمیان همچون ایشان پرورش دهیم یا اینکه پس از کشف نحوه ی کدگذاری حافظه در آدمی بتوانیم حافظه (روان) را به روبات با فرآیندی انتقال دهیم و سپس این اجازه را به وی دهیم که با دخل و تصرف در این انباشت ها، خود، شخصیت خود را برگزیند.

این مطلب از این جهت بیان شد که کپی کردن انباشت های روانی، کپی کردن الگوهای شناختی را نیز به همراه دارد و این نهایتا شخصیت روبات را تحت تاثیر قرار خواهد داد. در پایان می خواهم به این نکته اشاره کنم که می بایست به روبات ها چونان آدمیان این فرصت را داد که تکامل یافته و پرورش یابند. از آنجاییکه آدمیان خود موجودات کاملی نیستند، قاعدتا قادر نخواهند بود که روبات های کاملی بسازند. ما صرفا قادر خواهیم بود که الگوریتم تکامل را در تخمه ی مجموعه ی ذهن – روان روبات نگاشته و به آن ها اجازه دهیم که تکامل خود را مستقل از خوشایندهای ما ادامه دهند.

این مبحث بازکننده ی فصول جدیدی در بسیاری از حوزه های دیگر فلسفه بویژه اخلاق خواهد بود. البته در این جا دغدغه ی من کمتر در رابطه با این مطالب است که آیا ما آدمیان مختار به انجام این کار هستیم یا که نه، زیرا بر این باورم که هیچ امری نمی بایست از تحقیقات دانش بنیان ما جلوگیری کند، بلکه ی دغدغه ی اصلی من حقوق روبات ها در این زمینه می باشد. روبات هایی که به خودآگاهی برسند، اگرچه شاید در گام اول درد جسمانی را تجربه نکنند (هرچند که برای پرورش روان آن ها تعبیه ی گیرنده های درد فیزیکی نیز الزامی است) اما قطعا رنج روانی و به احتمال زیاد غم روحانی را تجربه خواهند نمود.

اینکه ما روباتی را طراحی کرده و سپس آن را از دور خارج کنیم مادامیکه روبات به خودآگاهی نرسیده است، مشکل اخلاقی گریبانگیر ما نخواهد بود اما بمجرد پیدایش خودآگاهی در آن ها، فعل ما شکل قتل را به خود خواهد گرفت زیرا روبات بر اساس خودآگاهی خود احتمالا مایل نخواهد بود که قدرت دیگری بودن یا نبودنِ وی را برایش رقم بزند. حقوق روبات ها اصل مهمی است که می بایست قبل از اقدامات منطقی – ریاضیاتی (و یا موازی با آن ها) بتوسط محققین مدنظر قرار گیرد.

شاید بجای روبات بهتر بود از لفظ “آدم نما” استفاده می کردم اما رویکردم در این نوشتار عمیق تر از بازی با کلمات می باشد. در این زمینه من بر این باورم که اصول رباتیک اسحاق آسیموف از ژرفای کافی و وافی برخوردار نیستند. این اصول 3 گانه برای انگاره ای بدون خودآگاهی از روبات هاست و در جهان آدم نماها بیش از حد ساده انگارانه و سطحی جلوه خواهند کرد. به گمانم منطق اولتیمات نیازمند اخلاق اولتیمات نیز هست و رشد این دو توامان خواهد بود.

امتیاز شما به این نوشته

0

0

اشتراک در
اطلاع از
guest
1 دیدگاه
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
س.ح
س.ح
7 سال قبل

بسیار مشتاقم چنین موجودی را دیده و توصیف وی از شگفت انگیز بودن جهان و نیز جهان بینی اش را جویا شوم!