برای نمایش تنوامندی رویکرد پیشنهادی، نتایج آزمایشهای بیشتر را در جدول 2 ارائه میکنیم. در این جدول، هر ردیف نشانگر یک مفهوم جدید برای انتساب در هستی شناسی است و ساختارهای هستی شناسی مربوطه و نتایج آنها با فرآیندهای مسیر دهی و ادغام طبقه بندی میشوند. حتی اگر
ساختارهای حاصل را بتوان تا قسمتی ارزیابی کرد، توسط متخصصهای حوزه ارزیابی میشوند. مفاهیم مربوط به دامنههای مختلف را شامل کردیم و به این صورت، امکان تعمیم متد را نشان میدهیم.
برخی از نتایج به دست آمده به هنگام آزمایش برای تست متد به دست آمدهاند. این نتایج توسط متخصصین حوزه ارزیابی شدهاند. هر ردیف نشانگر مفهومی ست که باید فراگرفته شود و همچنین شامل ساختارهایی میشود که توسط فرآیندهای مسیردهی و ادغام خروجی گرفته شدهاند.
برای هر ساختار هستی شناسی، سلول شامل برچسبها و نتایج مربوطه میشود. ساختارها با توجه به نتایج مرتب شدهاند. این مفاهیم از حوزههای دیگری هستند که تنواندی و جامعیت رویکرد پیشنهادی را نشان میدهد. اگر مفهوم قبلاً در پایگاه دانش وجود داشته باشد، تنها ساختاری به دست میآید که گرهای است در هستی و متناظر با یک مفهوم، که برای آنها تنها باید وقایع ایجاد شوند (برای مثال، مفاهیم گربه و مداد در این جدول). سلولهایی که کروشه خالی و خط تیره در آنها وجود دارد یعنی ساختاری شناخته نشده است.
مفهوم | ساختار هستی شناسی – نتیجه | ||
کیوی | میوه – 0.04250 | میوه، گلابی – 0.0295 | میوه، سیب – 0.02318 |
خربزه | میوه – 0.04685 | میوه، سیب، 0.02563 | میوه، گلابی – 0.01664 |
ولتاژ | انرژی – 0.08136 | دستگاه، انرژی – 0.02436 | [] — |
لینوکس | نرمافزار – 0.13556 | شی، نرمافزار – 0.04744 | [] – – |
قورباغه | حیوان – 0.03827 | حیوان، ماهی – 0.01140 | حیوان، گربه – 0.00913 |
گربه | گربه – 1.0 | [] – – | [] – – |
سونار | سنسور، 0.04739 | دستگاه، سنسور – 0.03176 | دستگاه، حافظه – 0.02247 |
مداد | مداد – 1.0 | [] – – | [] – – |
دروننگری در رابطه با وضعیت دانش
مجموعهی حقایقی که روبات در مورد دنیا میداند و برای استنتاج موجود هستند به صورت رسمی با جملهها نمایش داده میشوند (McCarthy,1995). معنای این حوزه دانش بوده و میتواند توسط روشهای بسیاری بیان شود، از جمله هستیشناسی.
گاهی، جملههای آگاهی روبات در مورد محیط را تشکیل میدهد. پس میتوانید ادعا داشته باشیم که هستی شناسی نوعی آگاهی از محیط روباتیک است، زیرا مجموعهای از جملهها را برای استنتاج به دست ما میدهد.
برخی حقایقی که در هستی شناسی مدلسازی میشوند (شاید همه آنها) همچنین برای مشاهده نیز در دسترس باشند، که باعث ایجاد جملههای دیگری در مورد این حقایق میشود. این حقایق شامل هوشیاری در مورد دنیا میشود و معمولاً با آگاهی تصادم دارد. هنگامی که نتایج مشاهده توسط فرآیندهای ناخودآگاه ایجاد نشده بلکه توسط اقدامات ذهنی خاص ایجاد شدهاند، پس از نوعی دروننگری آگاهانهی مصنوعی حاصل میشود، که یعنی خود آگاهی روباتیک.
اکنون استدلال ما این است که برای استنباط اینکه مفهومی قبلاً در دانش وجود دارد یا نه (اینکه آیا قبلاً توسط جملهها بیان شده است یا نه)، در نتیجهی یک دروننگری روباتیک رخ میدهد: حقایق دیگری در مورد وضعیت دانش ایجاد میکند. دروننگری روباتیک ممکن است به نظر اینطور برسد: «آیا دانش من شامل این هویت میشود؟ (یعنی آیا این هویت را میشناسم یا نه)، «این مفهوم ناشناخته باید در کجای هستی تخصیص یابد (یعنی این هویت چیست؟).
فرآیندهای مسیردهی و ادغامی که پیشتر بحث شدند را میتوان به صورت اقدامات ذهنی در نظر گرفت که اجازه میدهد روبات بتواند در مورد دانش خود دروننگری کند. یک جنبهی مهم در اینجا این است که این نوع مشاهده شفاف است، یعنی نتایجی که ارائه میکند قابل توصیف و توجیه هستند. انگیزههایی که باعث میشود شفافیت یک ضرورت اساسی باشد در ادامه آمده است.
معانی ادراکی برای مدلسازی دروننگری
نظریهی معنای ادراکی (Allwood & Gärdenfors ,1999) ادعا دارد که معنایی که انسانها درک میکنند با ساختارهایی هستند که طبیعت آنها برابر با زمانی است که چیزی درک میشود (یعنی وقتی که هویتها را در این بافت میشنوند، لمس میکنند، میبینند و به کار میگیرند).
به صورت خلاصهتر، معانی در ذهن انسان قرار دارد، نه در دنیای بیرون. پس وقتی که ما یک پیتزا میخوریم، آن را به صورت پیتزا میبینیم، زیرا درکی که از آن داریم با ساختاری که در ذهن خود برای مفهوم پیتزا داریم مطابقت دارد. به علاوه، در طبقهبندیِ ذهنیِ ما یک الگو در مورد شکل این مفهوم وجود دارد، و از آن میتوانیم اطلاعات دیگری را نیز به دست آوریم، برای مثال نوع پیتزایی که میخوریم (نام آن، محتوای آن و غیره). بر اساس معنای ادراکی، این الگو همان معنی هویتها است.
یک پیامد برای جایگاه ادراک این است که معنای یک هویت به صورت یک مسیردهی از شکل ظاهریِ هویت به سطح ظاهریِ ساختار ادراکی دیده میشود. این پارادایم از حوزهی معنا ادراکگرایانه و مفهومگرایانه است.
در رویکرد ما، هستی از مجموعهای از الگوهای ذهنی برای روبات تشکیل شده است. به ویژه، سطح بالا شامل ساختارهای ادراکی مسیردهیِ معنایی میشود. برچسبهای هستیشناسی شکل سطحی را برای ارتباط با شکل سطحیِ مفهوم ارائه میکند.
هنگامی که مفهوم با ساختارهای ادراکی مطابقت پیدا نمیکند، روبات درک میکند که این نوع هویت را نمیشناسد. بنابراین روبات این مفهوم جدید را یاد میگیرد و آن را در سطح بالا تخصیص میدهد.
ظهور ساختارهای ادراکیِ مربوط به یک مفهوم را اقدامات ذهنی در نظر میگیریم که روبات باید به صورت آگاهانه انجام دهد تا ببیند آیا مفهوم را میداند یا نه، و در نهایت آن را مفهومسازی کند. روبات از الگوهای ذهنی هستیشناسیِ یکسانی استفاده میکند، که در نهایت منجر به خودآگاهی میشود.
توصیف و شفافیت
منابع مربوط به پیادهسازی خودآگاهی بسیار وسیع هستند، و رویکردهای بسیاری در شبکههای عصبی به صورت مسئلهی طبقهبندی تعریف شدهاند. متاسفانه، برخی از این طبقهبندها هیچ مکانیسمی برای توصی نحوهی خروجی گرفتن نتایج ندارند. مکانیسمهای منطق آنها شفاف نیست، بنابراین به گرایش واقعی برای درک فرآیندهای تصمیمگیریِ زیرین توجهی ندراند.
درک مدل یادگیریِ شبکهی عصبی بسیار مهم شده است. زیرا ارائهی شفافیت به پیشبینیها و تصمیمهای یک الگوریتم برای اتکاپذیریِ آن بسیار ضروری است. با توجه به (Nápoles, Papageorgiou, Bello, and Vanhoof (2017))، شفافیت به صورت قابلیت شبکه برای توصیف مکانیسمهای نتیجهگیری و منطق آن تعریف میشود. به نظر میرسد این قابلیت در نتیجهی نوعی دروننگری باشد که میخواهیم با در نظر گرفتن سناریوی روباتیک آن را بررسی کنیم.
برای نمایش اهمیت این مسئله، قوانین حفاظت از دادهی کلی اخیر (Regulation EU, 2016) شامل یک بحث در رابطه با «حق توصیف» فرآیندهای تصمیمگیریِ الگوریتمها میشود. مدلهای جعبه سیاه برای مدت زمان زیاد مورد حمایت نخواهند بود، زیرا تصمیمهای آنها مستقیماً میتواند در زندگیِ مردم دخالت داشته باشد.
فرآیندهای آموزشی که مبنای این متدهای غیرسمبولیک هستند نشانگر رفتارهای مخفی هستند. ظهور ساختارهای پنهان از یک مجموعهی داده اجازه میدهد پارامترهای مدلها تنظیم شود. معمولاً، این تکنیکها جزئیات داده را از دست میدهند، که وقتی فرآیندها باید تحت نظارت باشند اهمیت ویژهای دارد. کارهای Napoles ،Grau ،Papageorgiou ،Bello و Vanhoof (2016) ،Napoles و دیگران (2017) شبکههای عصبی جدیدی معرفی میکنند که سعی دارند بر این تلفات چیره شوند.
استراتژیِ مورد نظر یک رویکرد جایگزین است که متدهای سمبولیک و غیرسمبولیک را ادغام میکند. به این صورت، از فرآیند یادگیری پرهیز میشود که باعث ایجااد شفافیت میشود.
دیدگاه خود را ثبت کنید
میخواهید به بحث بپیوندید؟مشارکت رایگان.