انتقال داده‌های شناختی برای ربات‌ها

برای نمایش تنوامندی رویکرد پیشنهادی، نتایج آزمایش‌های بیشتر را در جدول 2 ارائه می‌کنیم. در این جدول، هر ردیف نشانگر یک مفهوم جدید برای انتساب در هستی‌ شناسی است و ساختارهای هستی‌ شناسی مربوطه و نتایج آن‌ها با فرآیندهای مسیر دهی و ادغام طبقه‌ بندی می‌شوند. حتی اگر
ساختار‌های حاصل را بتوان تا قسمتی ارزیابی کرد، توسط متخصص‌های حوزه ارزیابی می‌شوند. مفاهیم مربوط به دامنه‌های مختلف را شامل کردیم و به این صورت، امکان تعمیم متد را نشان می‌‌دهیم.
برخی از نتایج به دست آمده به هنگام آزمایش برای تست متد به دست آمده‌‌اند. این نتایج توسط متخصصین حوزه ارزیابی شده‌‌اند. هر ردیف نشانگر مفهومی ست که باید فراگرفته شود و همچنین شامل ساختار‌هایی می‌شود که توسط فرآیند‌های مسیردهی و ادغام خروجی گرفته شده‌اند.

برای هر ساختار هستی‌ شناسی، سلول شامل برچسب‌ها و نتایج مربوطه می‌شود. ساختارها با توجه به نتایج مرتب شده‌‌اند. این مفاهیم از حوزه‌‌های دیگری هستند که تنواندی و جامعیت رویکرد پیشنهادی را نشان می‌‌دهد. اگر مفهوم قبلاً در پایگاه دانش وجود داشته باشد، تنها ساختاری به دست می‌‌آید که گره‌‌ای است در هستی و متناظر با یک مفهوم، که برای آن‌ها تنها باید وقایع ایجاد شوند (برای مثال، مفاهیم گربه و مداد در این جدول). سلول‌هایی که کروشه خالی و خط تیره در آن‌ها وجود دارد یعنی ساختاری شناخته نشده است.

مفهوم ساختار هستی‌ شناسی – نتیجه
کیوی میوه – 0.04250 میوه، گلابی – 0.0295 میوه، سیب – 0.02318
خربزه میوه – 0.04685 میوه، سیب، 0.02563 میوه، گلابی – 0.01664
ولتاژ انرژی – 0.08136 دستگاه، انرژی – 0.02436  [] —
لینوکس نرم‌افزار – 0.13556 شی، نرم‌افزار – 0.04744 [] – –
قورباغه حیوان – 0.03827 حیوان، ماهی – 0.01140 حیوان، گربه – 0.00913
گربه گربه – 1.0 [] – – [] – –
سونار سنسور، 0.04739 دستگاه، سنسور – 0.03176 دستگاه، حافظه – 0.02247
مداد مداد – 1.0 [] – –  [] – –

درون‌نگری در رابطه با وضعیت دانش

مجموعه‌ی حقایقی که روبات در مورد دنیا می‌داند و برای استنتاج موجود هستند به صورت رسمی با جمله‌ها نمایش داده می‌شوند (McCarthy,1995). معنای این حوزه دانش بوده و می‌تواند توسط روش‌های بسیاری بیان شود، از جمله هستی‌شناسی.
گاهی، جمله‌‌های آگاهی روبات در مورد محیط را تشکیل می‌دهد. پس می‌توانید ادعا داشته باشیم که هستی‌ شناسی نوعی آگاهی از محیط روباتیک است، زیرا مجموعه‌ای از جمله‌‌ها را برای استنتاج به دست ما می‌دهد.

برخی حقایقی که در هستی شناسی مدل‌سازی می‌شوند (شاید همه آن‌ها) همچنین برای مشاهده نیز در دسترس باشند، که باعث ایجاد جمله‌های دیگری در مورد این حقایق می‌شود. این حقایق شامل هوشیاری در مورد دنیا می‌شود و معمولاً با آگاهی تصادم دارد. هنگامی که نتایج مشاهده توسط فرآیند‌های ناخودآگاه ایجاد نشده بلکه توسط اقدامات ذهنی خاص ایجاد شده‌اند، پس از نوعی درون‌نگری آگاهانه‌ی مصنوعی حاصل می‌شود، که یعنی خود آگاهی روباتیک.
اکنون استدلال ما این است که برای استنباط اینکه مفهومی قبلاً در دانش وجود دارد یا نه (اینکه آیا قبلاً توسط جمله‌ها بیان شده است یا نه)، در نتیجه‌ی یک درون‌نگری روباتیک رخ می‌دهد: حقایق دیگری در مورد وضعیت دانش ایجاد می‌کند. درون‌نگری روباتیک ممکن است به نظر اینطور برسد: «آیا دانش من شامل این هویت می‌شود؟ (یعنی آیا این هویت را می‌شناسم یا نه)، «این مفهوم ناشناخته باید در کجای هستی تخصیص یابد (یعنی این هویت چیست؟).
فرآیندهای مسیردهی و ادغامی که پیشتر بحث شدند را می‌توان به صورت اقدامات ذهنی در نظر گرفت که اجازه می‌دهد روبات بتواند در مورد دانش خود درون‌نگری کند. یک جنبه‌ی مهم در اینجا این است که این نوع مشاهده شفاف است، یعنی نتایجی که ارائه می‌کند قابل توصیف و توجیه هستند. انگیزه‌هایی که باعث می‌شود شفافیت یک ضرورت اساسی باشد در ادامه آمده است.

متدهای شناخت محیط

معانی ادراکی برای مدل‌سازی درون‌نگری

نظریه‌ی معنای ادراکی (Allwood & Gärdenfors ,1999) ادعا دارد که معنایی که انسان‌ها درک می‌کنند با ساختارهایی هستند که طبیعت آن‌ها برابر با زمانی است که چیزی درک می‌شود (یعنی وقتی که هویت‌ها را در این بافت می‌شنوند، لمس می‌کنند، می‌بینند و به کار می‌گیرند).
به صورت خلاصه‌تر، معانی در ذهن انسان قرار دارد، نه در دنیای بیرون. پس وقتی که ما یک پیتزا می‌خوریم، آن را به صورت پیتزا می‌بینیم، زیرا درکی که از آن داریم با ساختاری که در ذهن خود برای مفهوم پیتزا داریم مطابقت دارد. به علاوه، در طبقه‌بندیِ ذهنیِ ما یک الگو در مورد شکل این مفهوم وجود دارد، و از آن می‌توانیم اطلاعات دیگری را نیز به دست آوریم، برای مثال نوع پیتزایی که می‌خوریم (نام آن، محتوای آن و غیره). بر اساس معنای ادراکی، این الگو همان معنی هویت‌ها است.
یک پیامد برای جایگاه ادراک این است که معنای یک هویت به صورت یک مسیردهی از شکل ظاهریِ هویت به سطح ظاهریِ ساختار ادراکی دیده می‌شود. این پارادایم از حوزه‌ی معنا ادراک‌گرایانه و مفهوم‌گرایانه است.
در رویکرد ما، هستی از مجموعه‌ای از الگوهای ذهنی برای روبات تشکیل شده است. به ویژه، سطح بالا شامل ساختارهای ادراکی مسیردهیِ معنایی می‌شود. برچسب‌های هستی‌شناسی شکل سطحی را برای ارتباط با شکل سطحیِ مفهوم ارائه می‌کند.
هنگامی که مفهوم با ساختارهای ادراکی مطابقت پیدا نمی‌کند، روبات درک می‌کند که این نوع هویت را نمی‌شناسد. بنابراین روبات این مفهوم جدید را یاد می‌گیرد و آن را در سطح بالا تخصیص می‌دهد.
ظهور ساختارهای ادراکیِ مربوط به یک مفهوم را اقدامات ذهنی در نظر می‌گیریم که روبات باید به صورت آگاهانه انجام دهد تا ببیند آیا مفهوم را می‌داند یا نه، و در نهایت آن را مفهوم‌سازی کند. روبات از الگوهای ذهنی هستی‌شناسیِ یکسانی استفاده می‌کند، که در نهایت منجر به خودآگاهی می‌شود.

توصیف و شفافیت

منابع مربوط به پیاده‌سازی خودآگاهی بسیار وسیع هستند، و رویکردهای بسیاری در شبکه‌های عصبی به صورت مسئله‌ی طبقه‌بندی تعریف شده‌اند. متاسفانه، برخی از این طبقه‌بندها هیچ مکانیسمی برای توصی نحوه‌ی خروجی گرفتن نتایج ندارند. مکانیسم‌های منطق آن‌ها شفاف نیست، بنابراین به گرایش واقعی برای درک فرآیند‌های تصمیم‌گیریِ زیرین توجهی ندراند.
درک مدل یادگیریِ شبکه‌ی عصبی بسیار مهم شده است. زیرا ارائه‌ی شفافیت به پیشبینی‌ها و تصمیم‌های یک الگوریتم برای اتکاپذیریِ آن بسیار ضروری است. با توجه به (Nápoles, Papageorgiou, Bello, and Vanhoof (2017))، شفافیت به صورت قابلیت شبکه برای توصیف مکانیسم‌های نتیجه‌گیری و منطق آن تعریف می‌شود. به نظر می‌رسد این قابلیت در نتیجه‌ی نوعی درون‌نگری باشد که می‌خواهیم با در نظر گرفتن سناریوی روباتیک آن را بررسی کنیم.
برای نمایش اهمیت این مسئله، قوانین حفاظت از داده‌ی کلی اخیر (Regulation EU, 2016) شامل یک بحث در رابطه با «حق توصیف» فرآیند‌های تصمیم‌گیریِ الگوریتم‌ها می‌شود. مدل‌های جعبه سیاه برای مدت زمان زیاد مورد حمایت نخواهند بود، زیرا تصمیم‌های آن‌ها مستقیماً می‌تواند در زندگیِ مردم دخالت داشته باشد.
فرآیندهای آموزشی که مبنای این متدهای غیرسمبولیک هستند نشانگر رفتارهای مخفی هستند. ظهور ساختارهای پنهان از یک مجموعه‌ی داده اجازه می‌دهد پارامترهای مدل‌ها تنظیم شود. معمولاً، این تکنیک‌ها جزئیات داده را از دست می‌دهند، که وقتی فرآیند‌ها باید تحت نظارت باشند اهمیت ویژه‌ای دارد. کارهای Napoles ،Grau ،Papageorgiou ،Bello و Vanhoof (2016) ،Napoles و دیگران (2017) شبکه‌های عصبی جدیدی معرفی می‌کنند که سعی دارند بر این تلفات چیره شوند.
استراتژیِ مورد نظر یک رویکرد جایگزین است که متدهای سمبولیک و غیرسمبولیک را ادغام می‌کند. به این صورت، از فرآیند یادگیری پرهیز می‌شود که باعث ایجااد شفافیت می‌شود.

0 پاسخ

دیدگاه خود را ثبت کنید

میخواهید به بحث بپیوندید؟
مشارکت رایگان.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *