830 likes | 1.01k Views
معماری عامل ها. معماری انتزاعی عامل ها. می توانیم نمایش انتزاعی از عامل را بصورت فرمال بنویسیم. این نمایش فرمال در ساخت عامل کمکی به ما نمی کند. فرض کنید E مجموعه ای متناهی از حالات باشد و فرض کنید که محیط می تواند در هر لحظه در یکی از این حالات باشد. E = {s1, s2, … }
E N D
معماری انتزاعی عامل ها • می توانیم نمایش انتزاعی از عامل را بصورت فرمال بنویسیم. • این نمایش فرمال در ساخت عامل کمکی به ما نمی کند. • فرض کنید E مجموعه ای متناهی از حالات باشد و فرض کنید که محیط می تواند در هر لحظه در یکی از این حالات باشد. • E = {s1, s2, …} • عامل بصورت مخزنی از اعمال آن فرض می شود که حالات محیط را انتقال می دهند. A = {a1,a2, …} آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل استاندارد • بصورت انتزاعی یک عامل را می توان بصورت یک تابع انتقال حالت مشاهده کرد action: S* A • یک عامل براساس سابقه اش تصمیم می گیرد که چه اقدامی انجام دهد. • رفتار(غیر قطعی) محیط را می توان بصورت یک تابع مدل کرد env :S* A Y(S) • می توانیم تعامل عامل و محیط را بصورت یک سابقه نمایش دهیم. a0 a1 a2 a3 au-1 au h: s0 s1 s2 s3 …. Su …. • h می تواند یک سابقه ممکن از عامل در محیط را نمایش می دهد اگر و تنها اگر شرایط زیر برقرار باشند: • به ازای هر u متعلق به N • به ازای هر u متعلق به N بطوری که u>0 آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل واکنشی محض (PRA) • این عامل بدون مراجعه به سابقه اش تصمیم می گیرد که چه انجام دهد. این عامل اتخاذ تصمیم خود را کاملا برمبنای زمان حال قرار می دهد و به هیچ وجه توجهی به گذشته ندارد. • نمایش فرمال این عامل به این صورت است: action: S A • به ازای هر PRA یک عامل استاندارد معادل آن وجود دارد. اما عکس آن همیشه درست نیست. • مثال: ترموستات یک عامل PRA است. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
تصحیح مدل انتزاعی • تفکیک تابع تصمیم گیری عامل به زیر سیستم های زیر: • ادراک: تابع see توانایی عامل در مشاهده محیط خود را نشان می دهد. این تابع در سخت افزار می تواند بصورت دوربین ویدیویی یا حسگر مادون قرمز بر روی یک روبات متحرک پیاده سازی شود. در نرم افزار می تواند دستورات سیستمی ای باشند که اطلاعات مربوط به محیط نرم افزار را دریافت می کنند. خروجی تابع see یک ادراک است: see :S P • عمل: تابع action فرآیند اتخاذ تصمیم عامل را نمایش می دهد. action : P* A • تابع action دنباله ای از ادراکات را به اعمال نگاشت می کند. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
زیر سیستم های ادراک و عمل ادراک عمل عامل محیط آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های دارای حالت داخلی • این عامل ها دارای ساختار داده ای می باشند که عموما برای ثبت اطلاعات وضعیت محیط و سابقه عملیات عامل از آنها استفاده می شود. فرض کنید I مجموعه تمام حالات داخلی عامل باشد. • see : S Pتابع ادراک • action : I Aتابع انتخاب عمل • next : I * P Iحالت داخلی و ادراک را به یک حالت داخلی نگاشت می کند آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های دارای حالت داخلی (ادامه) see action state next عامل محیط آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های دارای حالت داخلی (ادامه) • حلقه کنترلی عامل • آغاز فعالیت عامل از وضعیت اولیهi0 • مشاهده وضعیت محیط s و تولید ادراک See(s) • به روز آوری وضعیت داخلی از طریق تابع next(i0,See(s)) • انتخاب عمل مناسب توسط تابع action(next(i0,See(s))) • تکرار از مرحله 2 آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
وظایف عامل ها • عامل ها را می سازیم تا برایمان وظایفی انجام دهند. • وظیفه باید توسط ما تعیین شود. • اما می خواهیم به عامل بگوییم چه انجام دهند بدون این که به آن بگوییم چگونه آن را انجام دهد. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
توابع سودمندی بر روی حالت • یک راه: به هر حالت یک سودمندی نسبت دهید. وظیفه عامل آن است که به حالاتی برسد که به حداکثر سودمندی منجر می شوند. • توصیف وظیفه یک تابع بصورت زیر است: u : E R • این تابع یک عدد حقیقی به هر حالت محیط نسبت می دهد. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
سودمندی و اجرا (سابقه) • اما مقدار اجرا چیست؟ • مینیمم سودمندی حالت در اجرا؟ • ماکزیمم سودمندی حالت در اجرا؟ • مجموع سودمندی های حالات در اجرا؟ • میانگین آن؟ • عیب: تعیین یک نمایش طولانی مدت در هنگام نسبت دادن سودمندی به حالات دشوار است. • یک راه: تخفیف برای حالات از یک زمان به بعد آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
سودمندی در اجرا • راه دیگر: سودمندی را به جای حالات به اجراها نسبت دهید. u : h R • چنین رویکردی به خودی خود نمایش طولانی مدت را لحاظ می کند. • صورت های دیگر: احتمال حالات مختلف پدید آمده را نیز در نظر بگیرید. • مشکلات رویکردهای بر مبنای سودمندی: • این اعداد و مقادیر از کجا می آیند؟ • تفکرات ما براساس سودمندی نیست. • فرموله کردن وظایف به این صورت مشکل است. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
سودمندی در بازی دنیای کاشی ها • یک شبکه دو بعدی که در آن عامل، کاشی ها، موانع و حفره هایی وجود دارند. • عامل می تواند در چهار جهت بالا، پایین، چپ و راست حرکت کند و اگر در کنار یک کاشی باشد می تواند آن را هل دهد. • حفره ها باید با کاشی ها توسط عامل پر شوند. عامل با پرکردن حفره توسط کاشی امتیاز می گیرد و قصد دارد که تا حد ممکن حفره های بیشتری را پر کند. • دنیای کاشی ها با ظاهر شدن و ناپدید شدن حفره ها بصورت تصادفی تغییر می کند. • تابع سودمندی بصورت زیر تعریف می شود: hتعداد حفره های پرشده در u(h) = -------------------------------- hتعداد حفره های ظاهر شده در آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
معماری های عامل • پرسش: چگونه عملیات انتزاعی که در قبل دیدیم را می توان پیاده سازی کرد؟ • قصد ما این است که عامل هایی بسازیم که ویژگی های خودمختاری، واکنشی، کنش گرایی و قابلیت اجتماعی داشته باشند. • پاسخ به این پرسش در حوزه معماری عامل ها قرار می گیرد. • معماری عامل: • یک نقشه از عناصر داخلی عامل – ساختمان داده های آن، اعمالی که ممکن است بر روی این ساختمان داده ها اجرا شوند و جریان کنترلی بین این ساختمان داده ها. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
چهار نوع معماری • چهار نوع معماری برای چهار گروه از عامل ها مطرح است: • عامل های منطقی/ نمادین • عامل های واکنشی • عامل های BDI • عامل های ترکیبی و چند لایه آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
تاریخچه • در سالهای 1956 تا 1985 تقریبا تمام عامل هایی که در هوش مصنوعی طراحی می شدند بر مبنای استدلال بودند و از استدلال منطقی در این گونه عامل ها برای تصمیم گیری استفاده شده است. • در سال 1985 با توجه به مشکلات استدلال نمادین عامل های واکنشی مطرح شدند. • از سال 1990 به بعد تکنیک های معماری ترکیبی ارائه شدند که سعی در ترکیب بهترین معماری های استدلالی و واکنشی را داشته اند. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های منطقی/ نمادین • ساده ترین روش برای ساخت عامل ها این است که آنها را نوع خاصی از سیستم های مبتنی بر دانش بدانیم. • این الگو هوش نمادین نامیده می شود . • یک معماری منطقی معماری ای است که : • در آن عامل شامل مدلی نمادین از دنیای واقعی است که بطور صریح بیان می شود. • تصمیمات آن بر مبنای استدلال نمادین یا منطق صورت می گیرد. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های منطقی/ نمادین (ادامه) • مشکلات عمده عامل های منطقی • تعریف تابع نگاشت محیط به ادراک به شکل نمادین مشکل است. به عبارت دیگر تعریف خصوصیات یک محیط پویا و واقعی در قالب مجموعه ای از قوانین استنتاج دشوار است. • زمان لازم برای تصمیم گیری این عامل ها قابل کنترل نبوده و احتمال دارد تابع تصمیم گیری هرگز پایان نگیرد. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های منطقی/ نمادین (ادامه) • عامل چگونه از راه اثبات قضیه تصمیم می گیرد که چه کاری انجام دهد؟ • ایده اصلی استفاده از منطق برای کد کردن قضیه است که بهترین عملی را که باید در هر موقعیت اجرا شود بیان می کند. • فرض کنید: • R این قضیه باشد (قوانین قیاسی) • D یک پایگاه داده منطقی که حالت جاری جهان را بیان می کند • Acیک مجموعه از اعمال که عامل می تواند انجام دهد • D |- r j یعنی j بتواند با استفاده از r از D اثبات شود آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های منطقی/ نمادین (ادامه) • see : S P • next: D * P • action : D A • D = j (L) یک مجموعه از L پایگاه داده است. وضعیت داخلی هر عامل عضوی از مجموعه D است که D1, D2, ... اعضای D می باشند. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های منطقی/ نمادین (ادامه) • شبه کد تعریف عمل function action (p: P) : A /* try to find an action explicitly prescribed */ for each a e Ac do If D |- rDo ( a) then return a end-if end-for /* try to find an action not excluded */ for each a e Ac do If D |- r not Do(a) then return a end-if end-for return null /* no action found */ end function action آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های منطقی/ نمادین (ادامه) • مثال: دنیای جاروبرقی • هدف روبات روبات جستجوی محیط، کشف آشغال و جارو کردن آن است. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های منطقی/ نمادین (ادامه) • عامل دنیای جاروبرقی • از سه گزاره در این مثال استفاده می کنیم: • In(x,y) عامل در خانه (x,y)قرار دارد • Dirt(x,y)در خانه (x,y)آشغال وجود دارد • Facing(d)جهت عامل به سمت d است که d می تواند شمال، جنوب، شرق یا غرب باشد. • اعمال ممکن • Ac ={turn,forward,suck}کهدر آن turn به معنی گردش به راست می باشد. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های منطقی/ نمادین (ادامه) • قوانین برای تعیین این که چه عملی انجام شود • و غیره • عامل با استفاده از این قوانین و با شروع از خانه (0و0) شروع به برداشتن آشغال می کند. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های واکنشی • مسائل حل نشده فراوانی در رابطه با هوش مصنوعی نمادین وجود دارد. • این مشکلات باعث شد که تعدادی از محققین در پی یافتن جانشینی برای آن باشند و سه دیدگاه مطرح شد: • دیدگاه اول به رد بازنمایی نمادین و تصمیم گیری براساس ساختار آن پرداخته است • دیدگاه دوم این ایده را دارد که رفتار هوشمند عامل ناشی از تعامل با محیط است و بطور مستقل قابل تعریف نیست. • در دیدگاه سوم رفتارهای هوشمند متشکل و منتج از رفتارهای ساده تر دانسته شده است. این دیدگاه عامل را مبتنی بر رفتار می داند. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های واکنشی (ادامه) • Rodney Brooks معماری جزء به کل را مطرح کرد که در آن دو خصوصیت مطرح است: • اول این که تصمیم گیری عامل از طریق مجموعه ای از رفتارهای مستقل صورت می گیرد و بر محیط اثر می گذارد. یعنی درک از محیط براساس اثر رفتار به عنوان ورودی نگاشتی از حالت به عمل می دهد. • دوم این که تعدادی رفتار بطور همزمان می توانند اجرا شوند. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های واکنشی (ادامه) • در این معماری رفتارها بصورت لایه های مختلفی ارائه می شوند که • هر رفتار یک ساختار شبیه قانون دارد: عمل وضعیت • هر رفتار برای گرفتن کنترل عامل با دیگران رقابت می کند. • سطوح بالاتر رفتارهای انتزاعی تری را بروز می دهند • لایه های پایین تر قادر به جلوگیری لایه های بالاتر هستند یعنی تقدم بیشتری نسبت یه آنها دارند. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های واکنشی (ادامه) • تعریف تابع action function action(p:P) : A var fired: j(R) var selected: A begin fired := {(c,a) | (c,a) e R and p e c} for each (c,a) e fired do if not( Exists (c’,a’) e fired such that (c’,a’) (c,a)) then return a end-if end-for return null end function action آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های واکنشی (ادامه) • یک مثال: سیستم کاوشگر مریخ • شامل گروهی از روبات (عامل) های جمع آوری نمونه سنگ ها از سطح مریخ می باشد که در آن مکان نمونه ها از قبل مشخص نیست اما می دانیم که نمونه ها در حوالی یکدیگر قرار دارند. • هر روبات تا جایی می تواند از مبدا دور شود که امکان دریافت سیگنال از مبدا اصلی باشد. • ارتباط بین عامل ها بصورت غیر مستقیم از طریق مبدا صورت می گیرد. • اگر نمونه جمع آوری شده توسط یک عامل در مسیر انتقال به مبدا رها شود عامل دیگر آن را برمی دارد. • هر یک از این عامل ها به تنهایی دارای رفتار خاص می باشند و مهم ترین و پایین ترین سطح (با بالاترین اولویت) پرهیز از موانع می باشد. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های واکنشی (ادامه) • گروه های رفتاری و سلسله مراتب عملیات عامل: حرکت تصادفی برداشتن نمونه عمل کردن حس کردن بازگشت به مبدا انداختن نمونه جلوگيری از برخورد با مانع آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل های واکنشی (ادامه) • مزایا و معایب معماری واکنشی • مزایا • ساده، مقرون به صرفه، کامل و محکم • معایب • همواره باید اطلاعات کافی از محیط برای هر عامل بصورت محلی فراهم باشد. • چون تصمیم گیری براساس اطلاعات محلی صورت می گیرد استفاده از این معماری در حالت های غیرمحلی عمومیت ندارد. • یادگیری در این معماری با چنان وسعتی همراه خواهد بود که عملا از کارایی آن می کاهد. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
استدلال عملی • استدلال عملی استدلالی است که جهت گیری آن به سمت اعمال است یعنی فرآیند معین کردن این که چه کاری انجام دهیم. • تعریف Bratman از استدلال عملی • استدلال عملی به وزن دادن به ملاحظات مختلف و متضاد به نفع یا برعلیه گزینه های رقیب هم مربوط می شود که در آن ملاحظات مناسب از آنچه که عامل قصد دارد(برایش ارزش دارد/ به آن توجه دارد) و آن چه که عامل باور دارد فراهم می شود. • استدلال عملی با استدلال نظری متفاوت است. جهت گیری استدلال نظری به سمت باورها است. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
استدلال عملی (ادامه) • استدلال عملی در انسان شامل دو عمل است: • بررسی و قیاس : تصمیم گیری در مورد این که به چه اهدافی می خواهیم برسیم • خروجی بررسی و قیاس قصد ها می باشند. • استدلال عملی: تصمیم گیری در مورد این که چگونه می خواهیم به این اهداف برسیم آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
بررسی و قیاس • عامل چگونه بررسی و قیاس می کند؟ • ابتدا سعی کنید بفهمید چه گزینه هایی پیش روی شماست • از بین آنها گزینه هایی را انتخاب کنید و متعهد به انجام آنها شوید. • گزینه های انتخاب شده قصدها خواهند بود. • تابع بررسی و قیاس را می توان به دو مولفه تقسیم کرد: • تولید گزینه ها: در این بخش مجموعه ای از گزینه ها تولید می شود. این کار از طریق تابعی به نام option انجام می شود که باورهای کنونی عامل و قصد های کنونی آن را می گیرد و مجموعه گزینه ها را تعیین می کند. • فیلتر کننده گزینه ها: در این بخش تابعی به نام filter بین حالت ها و پیشنهادهای مختلف انتخاب می کند وعامل برای رسیدن به آنها متعهد می شود. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
استدلال عملی • ایده اصلی آن است که به عامل • نمایش قصد ها و اهدافی که باید به آنها برسد • نمایش اعمالی که می تواند انجام دهد و • نمایش محیط • داده شود تا او برنامه ای را برای رسیدن به هدف تولید کند. در حقیقت این یک برنامه سازی خودکار است. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
Practical Reasoning • Human practical reasoning consists of two activities: – deliberation deciding what state of affairs we want to achieve; • means-ends reasoning deciding how to achieve these states of affairs. The outputs of deliberation are intentions.
Deliberation • How does an agent deliberate? – begin by trying to understand what the options available to you are; – choose between them, and commit to some. Chosen options are then intentions.
Deliberation • The deliberate function can be decomposed into two distinct functional components: – option generation in which the agent generates a set of possible alternatives; and Represent option generation via a function, options, which takes the agent’s current beliefs and current intentions, and from them determines a set of options (= desires). – filtering in which the agent chooses between competing alternatives, and commits to achieving them. In order to select between competing options, an agent uses a filter function.
Means-Ends Reasoning • Basic idea is to give an agent: – representation of goal/intention to achieve; – representation actions it can perform; and – representation of the environment; and have it generate a plan to achieve the goal. Essentially, this is automatic programming.
معماری BDI • معماری BDI بر مبنای استدلال عملی است • تصمیم گیری در مورد این که به چه اهدافی باید برسیم • تصمیم گیری در مورد این که چگونه به آن اهداف برسیم • BDI • باورها (Beliefs) • خواسته ها (Desires) • قصد ها (Intentions) آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
معماری BDI (ادامه) • قصد ها: • از استدلال عملی ناشی می شوند • بررسی های آینده را تحمیل می کنند • مانا هستند • بر روی باورها تاثیر می گذارند که استدلال عملی آینده بر مبنای آنها است آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
معماری BDI (ادامه) ورودی حسگر تابع بازنگری باورها باورها تابع توليد گزينه تمايلات فيلتر کننده قصدها تابع انتخاب عمل آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab عمل خروجی
معماری BDI (ادامه) • مولفه های عامل BDI • باورها • اطلاعات عامل را در محیط کنونی اش بیان می کند • تابع بازنگری باورها • درک عامل را با نگاشت بر روی محیط دریافت کرده و باورهای جاری را به روز می کند. • brf: j(Bel) * P j(Bel) • تابع تولید گزینه • ورودی آن باورها و قصد عامل بوده و براساس آنها انتخابهای ممکن برای عامل را که در واقع همان تمایلات اوست تعیین می کند options: j(Bel) * j(Int) j(Des) آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
معماری BDI (ادامه) • مجموعه ای از گزینه های معتبر(تمایلات) که مبین اعمالی است که عامل می تواند انجام دهد. • یک تابع فیلترکننده که ورودی آن باورها و قصدهای عامل بوده و خروجی آن براساس فرآیند تبادل نظر(قیاس) اهداف (قصدهای) جدید عامل است filter: j(Bel) * j(Int) * j(Des) j(Int) • مجموعه ای از قصدهای جاری که کانون فعالیت عامل را تعیین می کند. • تابع انتخاب عمل بر پایه قصد و اهداف فعلی که عملی را که باید انجام شود تعیین می کند execute : j(Int) A or action: P A آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
معماری BDI (ادامه) • شبه کد تابع action در BDI: function action(p: P) : A begin B := brf (B,p) D:= options(B,I) I:= filter(B,D,I) return execute(I) end function action آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
مشکلات BDI • عاملی که در قصدهای خود تجدید نظر نمی کند تلاش می کند حتی پس از آنکه روشن شد که قابل دستیابی نیستند یا دیگر دلیلی برای رسیدن به آنها وجود ندارد برای رسیدن به آنها تلاش می کند • عاملی که پیوسته در قصدهای خود تجدید نظر می کند زمان و منابع را به هدر می دهد. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
مثالی از یک عامل BDI پیاده سازی شده: عامل PRS • در این سیستم هر عامل دارای مجموعه ای از برنامه ریزی های انجام شده(plan library) می باشد که بیانگر دانش رویه ای عامل است. • دانش رویه ای دانشی درباره مکانیزم هایی است که می توانند توسط عامل به منظور تحقق قصد هایش به کار روند. • گزینه های پیش روی یک عامل مستقیما توسط برنامه ریزی های آن تعیین می شوند. عاملی که برنامه ریزی ندارد گزینه ای نخواهد داشت. • در این سیستم عامل ها بازنمایی صریحی از باورها، تمایلات و قصد ها و نیز دانش رویه ای دارند. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
عامل PRS (ادامه) • معماری PRS محيط دانش های رويه ای باورها پردازشگر ورودی حسگر عمل خروجی تمايلات قصد ها آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab
مثالی از یک عامل BDI پیاده سازی شده: IRMA • IRMA چهار ساختمان داده نمادین دارد: • مجموعه ای از برنامه ریزی ها • نمایش صریح از باورها: اطلاعاتی که عامل در اختیار دارد که یا می تواند بصورت نمادین بیان شود حتی می تواند بسادگی تعریف متغیرهای زبان پاسکال باشد. • تمایلات: مفاهیمی که مورد نظر عامل است • قصدها: تمام اهدافی که عامل به آنها دسترسی داشته و برای رسیدن به آنها تعهد دارد. آزمایشگاه سیستمهای هوشمند www.ceit.aut.ac.ir/islab