تارا فایل

مقاله حل مسایل مقدار اولیه،مرزی دستگاه معادلات دیفرانسیل بوسیله شبکه های عصبی مصنوعی پیشخور


مقاله چند بعدی
حل مسایل مقدار اولیه- مرزی دستگاه معادلات دیفرانسیل جزئی مرتبه بالا غیر خطی بوسیله شبکه های عصبی مصنوعی پیشخور.
چکیده
در این مقاله روش جدید عمومی برای حل علمی مسایل مقدار اولیه- مرزی دستگاه معادلات جزئی بخصوص مراتب بالا و غیرخطی در یک ابرمکعب سیلندری ارائه می شود. این روش یک روش مش- فری بوده و جدایی بفرم بسته تحلیلی تولید میکند. ترکیبی از مفاهیم شبکه های عصبی مصنوعی و ابزارهای بهینه سازی چند بعدی در این روش بکار میرود. بوسیله مفاهیم تقریب توابع چندمتغیر، وابسته به مباحث شبکه های عصبی مصنوعی پیشخوار و نیز بکمک هم محلی در نقاطی مشخص، حل مسئله مقدار اولیه- مرزی به مسئله بهینه سازی نامتغیر یک تابع انرژی تبدیل میگردد. بعبارت دقیقتر یک جواب آزمون عصبی برای مسئله مقدار اولیه- مرزی متشکل از مجموع دو قسمت در نظر میگریم: قسمت اول در شرایط اولیه- مرزی (زمانی- فضایی) صدق میکند، درحالیکه قسمت دوم شامل متغیرهای لازم برای مینیمم سازی تابع خطای مسئله میباشد و بکمک یک شبکه عصبی سه لایه و پیشخور شبیه سازی گشته و برای صدق در دستگاه معادلات دیفرانسیل مسئله آموزش میبیند. این روش را میتوان بعنوان تعمیمی مناسب از روشهای معینی در نظر گرفت. کاربرد این روش جدید صرفنظر از نوع شرایط اولیه- مرزی در دامنه ای از یک معادله دیفرانسیل معمولی تا دستگاهی از معادلات دیفرانسیل جزئی متغیر است.
کلمات کلیدی:
دستگاه معادلات دیفرانسیل جزئی وابسته بزمان- مسایل مقدار اولیه- مرزی- شبکه های مصنوعی پیشخور- یادگیری نظارت بهینه سازی نامقید چندبعدی.

1.مقدمه:
در علوم مهندسی اغلب سیستمهای دنیای واقعی که با معادلات دیفرانسیل توصیف شده اند، شامل چندین شرط اولیه یا مرزی وابسته به شرایط فیزیکی مسئله نیز میباشند. مهمترین شاخص در مورد هر مسئله مقدار اولیه- مرزی برای یک دستگاه معادلات دیفرانسیل جزئی عبارتست از خوش خیمی آن یعنی وجود و یکتایی جواب مسئله بسته بنوع معادلات و نیز نوع شرایط اولیه- مرزی قابل بحث است. مانند سایر مسایل روشهای زیادی هر چند مشکل، برای حل غیرتحلیلی چنین مسایلی وجود دارد از قبیل روشهای جداسازی متغیرها، تبدیلات انتگرالی، تغییر مختصات، تغییر متغییر وابسته، معادلات انتگرال و . . . ارزش این روشها زمانی مشخص تر میشود که برای مسایلی بکار بروند که جواب تحلیلی نداشته یا جواب تحلیلی شان مستقیما قابل محاسبه نباشد. این ارزش در صورت توانایی بکارگیری روش برای دستگاه معادلات دیفرانسیل جزئی (وابسته بزمان) از مراتب بالا و غیرخطی، دوچندان میشود.
در ریاضیات کاربردی عبارتند از همگرایی، پایدار علمی، سازگاری و خوشحالی عددی آنها. سه دسته مجزا برای این روشهای حل غیرتحلیلی میتوان در نظر گرفت: روشهای تغییراتی، روشهای بسطی و روشهای علمی. در روشهای تغییراتی معادلات دیفرانسیل مسئله را بهمراه شرایط اولیه- مرزی آن بیک مسئله مینیمم سازی تابعکی مناسب در یک فضای تابعی تبدیل کرده و با حل این مسئله بهینه سازی جواب مسئله اصلی را بدست میاوریم. مهمترین مشکل چنین روشهایی تعریف مناسب تابعکهای مورد نیاز میباشد.
در روشهای بسطی (طیفی و شبه طیفی) مانند روشهای هم محلی و گالرکین یا روشهای سری فوریه، سری وزنوله متناهی جواب تقریبی مسئله را بکمک یک دسته از توابع پایه ای (چندجمله ایهای متعامد) در نظر گرفته و با تحویل مسئله اصلی بیک دستگاه معادلات (خطی) ضرایب مجهول سری مذکور را بدست میاوریم مهمترین مشکلات این روشها نحوه انتخاب توابع پایه ای و چگونگی محاسبه ضرایب مجهول، میباشد.
تا اینجا روشهای مزبور همگی بدون مش میباشند. در مقابل، روشهای علمی طبق معمول بر پایه گستر سازی دامنه تعریف مسئله به تعدای المان، محلی بوسیله یک مجموعه از پیش تعیین شده و متناهی از نقاط گرهی بنام مش، استوار هستند و جواب را در این مجموعه متناهی از نقاط بدست میدهند.
مهمترین مشکلات چنین روشهایی عبارتست از اسلوب المان، خواص حل کننده اصلی و محاسبات مربوط به تولید مش. از میان روشهای علمی برای حل مسایل مقدار اولیه- مرزی معادلات دیفرانسیل جزئی، مشهورترینشان روشهای تفاضلات، المان محدود، حجم محدود و المان مرزی میباشند.
اکثر کارهای پیشین در حل مسایل مقدار اولیه امرزی معادلات دیفرانسیل جزئی در یک دامنه ابر مکعبی بکمک شبکه های عصبی پیشخور، به اصل جایگذاری تقریب تابع جواب که بوسیله خواص تقریب زنندگی شبکه های عصبی مصنوعی بدست آورده است، در معادلات (و شرایط اولیه امرزی) مسئله، استوار میباشند.
از اولین موارد چنین کاربردی را میتوان در یافت. که در اولی معادله خطی پواسون با نرم خطای چهار رقم اعشار و نیز معادله گرمای غیرخطی، حل شده است و دومی نیز شامل حل عددی دو مسئله مرتبه دو بیضوی تا شش رقم اعشار دقت میباشد.
در سال 1998 لاگاریس و دیگران در با تعمیم و تدقیق اصل مذکور در با روش بدون مش به حل مسایل غیر خطی مرتبه دو با شرایط مرزی مخلوط (دیریکله و نویمان) تا دقت حدود هفت رقم اعشار در رژیمی علمی مبادرت ورزیده اند.
حاوی کاربردی از شبکه های عصبی مصنوعی پیشخور برای حل علمی نوع خاص از معادلات دیفرانسیل جزئی مرتبه اول است. معادله هامیلتون- ژاکوبس- بلمن که مرتبه اول و غیر خطیست در و با کمک یک شبکه عصبی مصنوعی سه لایه حل گردیده است و در نیز مسئله مرتبه دو یک بعدی (وابسته به زمان) جریان غیرثابت آبهای زیرزمینی، بکمک شبکه های عصبی و الگوریتمهای ژنتیک حل شده است. در شاهد حل علمی شبکه گرمای کنترل شده با سه رقم اعشار دقت، بکمک شبکه های عصبی سه لایه و پیشخور هستیم.
در سال 2003 حسن علی و دیگران در بر مبنای کار مسئله معادله دوبعدی مربع را تا شش رقم اعشار و مسئله معادله نوسان طولی میله ای با دو سه ثابت را تا پنج رقم اعشار دقت در یک رژیم عصبی حل کرده اند. و اخیراً در به حل علمی معادلات یک بعدی کوراموتو- سرواشینسکی (وابسته به زمان) و معادلات دو بعدی ناویه- استوکس، بوسیله شبکه های عصبی مصنوعی پرداخته شده است. و سرانجام، سابقاً با کاربرد روش جدید خود برای حل مسایل مقدار اولیه و مرزی دستگاه معادلات دیفرانسیل معمولی مراتب بالا و غیرخطی، به حل مسایل نمونه (تا مرتبه چهار) با دقت پنج رقم اعشار پرداخته ایم.
در این مقاله، روش جدیدی و کالا برای حل مسایل مقدار اولیه- مرزی دستگاه معادلات دیفرانسیل جزئی وابسته بزمان در کاملترین حالت و در دامنه ای ابرمکعبی سیلندری ارائه میدهیم. روش ما در واقع تعمیمی قوی و کارا از روشهای طیفی می باشد، بدین معنا که جواب آزمون عصبی، شامل ضرایب کنترل کننده دقت در مخرج کسرهایی بعنوان توابع شبه پایدار میباشد. ما با استفاده از روشهای تقریب توابع بکمک شبکه های عصبی مصنوعی، نیاز به گسسته سازی دامنه را برطرف میکنیم، یعنی روش ما مش- فری بوده و تنها از مجموعه نقاط دلخواهی برای هم محلی و آموزش شبکه عصبی استفاده میکند. بعبارت دیگر، چنانچه خواهیم دید، مسئله را از زاویه دیگری میبینیم و در رژیم عصبی برای حل یک مسئله مقدار اولیه- مرزی دستگاه معادلات دیفرانسیل جزئی، شبکه عصبی چند لایه و پیشخور را بعنوان المان تقریب پایه ای (سریر متناهی از ترکیب خطی توابع شبه پایه ای) در نظر گرفته و با توجه به خواص تقریب زدن توابع چند متغیر، در این نوع شبکه ها، جواب تقریبی (آزمون) مسئله را بصورت مجموع دو قسمت مینویسیم: قسمت اول، جواب آزمون را مجبور می کند که در شرایط مسئله صدق نماید و قسمت دوم را که شامل یک شبکه عصبی چند لایه و پیشخوار است، بکمک روشهای بهینه سازی نامتغیر چند متغیره برای صدق در دستگاه معادلات دیفرانسیل مسئله آموزش میدهیم تا مقادیر بهینه پارامترهای شبکه برای مینیمم سازی یک تابع خطای مناسب بدست آید. این مقادیر بهینه پارامترهای شبکه برای مینیمم سازی یک تابع خطای مناسب بدست آید. این مقادیر همان ضرایب تعیین کننده جواب تقریبی مسئله بصورت سری متناهی ای از توابع شبه پایداری، میباشند. از مهمترین مزایای این روش جدید عبارتست از: امکان کاربرد عالی روش برای حل دستگاه معادلات دیفرانسیل جزئی وابسته بزمان، عمومیت این روش در حل مسایل مراتب بالا و غیرخطی، تعیین جواب تقریبی مسایل بصورت فرم بسته تحلیلی (همه جا از هر مرتبه مشتقپذیر) که براحتی قابل بکارگیری در کاربردهای دیگر میباشد، سروکار داشتن با تعداد پارمترهای متنوع در مقایسه با سایر روشها، قابلیت کاربرد روش برای حل مسایل مقدار اولیه و مرزی معادلات دیفرانسیل معمولی، فراغت روش از هرگونهه محدودیتهای رایج در روشهای مرسوم مانند دستگاههای خطی بدست آمده در روشهای بسطی و یا لزوم برقراری رابطه ای خاص میان طول گام در ابعاد مختلف، در روش تفاضلات متناهی و . . . )، قابلیت پردازش موازی موجود در روشهای شبکه های عصبی مصنوعی و امکان پیاده سازی سخت افزاری روش در قالب تراشه های عصبی که در مورد آخر نشاندهنده پیاده سازی سلولهای عصبی بمنظور حل علمی معادلات دیفرانسیل جزئی و نیز بیانگر نوعی پیاده سازی پرس مبنای روشهای موجود در بر روی یک دستگاه پنتیوم 3، 733 مگاهرتز برای حل علمی معادله پواسون میباشد.
باقیمانده این مقاله بصورت زیر سازماندهی شده است: در بخش 2 مبانی مختصری از معماری شبکه های عصبی مصنوعی پیشخور برای آشنایی بیشتر و بکارگیری در بخشهای بعدی، ارائه میگردد. در بخش 3 روش جدید پیشنهادی بطور کلی معرفی شده و سایر مباحث مرتبط با آن توصیف می شود. بخش 4 شامل فرمولبندی دقیقتری از روش است، همچنین فرمولهای لازم برای بخشهای بعدی در این بخش بدست میایند. بخش 5 کاربردهایی از روش پیشنهادی برای برخی مسائل نمونه و نحوه بدست آوردن جواب آزمون و تابع خطا برای آنها را شامل میشود. مثالهای علمی بخش 6 با استفاده از مطالب بخش قبل ارائه میگردند. مقادیر خطای جوابهای تقریب بدست آمده برای این مثالها نسبت به جوابهای دقیق بصورت گرافیکی در نمودارهایی نشان داده خواهد شد. نهایتاً بخش 7 شامل نتایج و جهتگیریهایی برای تحقیق بیشتر بوده و مقاله را به پایان میرساند.
2.مبانی شبکه های عصبی مصنوعی پیشخور:
بحثهای اولیه در مورد شبکه های عصبی مصنوعی در دهه 40 با معرفی شبکه های عصبی پیشخور آغاز شد. شبکه های عصبی مصنوعی تا حدودی از مغز و سیستم عصبی اسنان الگو برداری شده اند و نوعی از روشهای مدل – فری برای پردازش داده، با مقدار حقیقی میباشند که قادرند برپایه سوابق اطلاعاتی درست از مسئله، جوابهای قابل قبولی ارائه دهند.
مهمترین کاربردهای انواع مختلف شبکه های عصبی عبارتند از: تشخیص گفتار، پردازش تصویر، سیستم کنترل، هوش مصنوعی، تشخیص چهره، جریان سیالات، سریهای زمانی، سیستمهای دینامیکی و . . . .
مراجع متفاوتی شامل منابع نرم افزاری متنوع در مورد تئوری، ریاضیات، مدلسازی، الگوریتم، طراحی، معماری و کاربردهای شبکه های عصبی مصنوعی وجود دارد که برای مطالعه بیشتر میتوان بدانها مراجعه نمود.
شبکه های عصبی از واحدی محاسباتی بنام عصب تشکیل شده اند. هر عصب تعدای ورودی غددی دارد. درون عصب هر ورودی در ضریب عصبی متناظرش که بنانگر ارزش آنست ضرب شده و مجموع همه این مضارب با مقداری بنام اریب جمع میشود. نهایتاً تابع تحریک روی این مجموع اثر گذاشته و خروجی حقیقی عصب را بطور پیشخور تعیین میکند.
معمولا در اکثر کاربردها حداقل شرایط برای شکل تابع تحریک در کلیترین حالت عبارتست از اس- شکل (زیگموئید) تعمیم یافته بودن، یعنی یکنو (غیر تروپی) بودن تابع و اینکه حد تابع تحریک در مثبت و منفی بینهایت متنهای باشد. دو نوع مناسب از چنین توابعی، تانژانست هیپربولیک و اوژستیک با ضابطه میباشد که ما در استفاده از مورد دوم قرار میدهیم.
در چنین سازمانی برای عصب منظور از یادگیری عبارتست از تعیین مقادیر عددی بهینه ضرایب عصبی، بنحویکه با معلوم بودن ورودیها، خروجی عصب قابل محاسبه باشد. اولین روش یادگیری برای مدل عصبی مذکور به قانون یادگیری عصب معروفست. که چون براساس مینیمم سازی میزان اختلاف بین مقادیر محاسبه شده و مطلوب خروجی عصب کار میکند، یادگیری با سرپرست نامیده میشود. قدرت اصلی شبکه های عصبی، نشات میگیرد. ساده ترین توپولوژی شبکه های عصبی بصورت گروهی از عصبهاست که در یک لایه سامان داده شده و یک یا چند ورودی مشترک دارند و شبکه تک لایه یا پرسپترون نامیده میشوند. (ممکن است خروجی یک عصب وردی عصب یا عصبهای دیگر بوده و شبکه بازگشتی باشد.)
معماری شبکه های عصبی چند لایه از چند شبکه تک لایه بصورت آبشاری بدنبال هم قرار گرفته اند و عصبهای لایه های متوالی حداقل یک ورودی (خروجی) مشترک دارند، تشکیل میشود. در شبکه های عصبی چند لایه و پیشخور که در این مقاله در نظر گرفته میشوند، بازگشتی وجود نداشته و خروجیهای عصبهای هر لایه ورودیهای عصبهای لایه بعدی را تشکی میدهند. چنین شبکه ای از عصبها پرسپرترون چند لایه نامیده میشود. در معماری پرسپترونهای چند لایه، عصبهایی که به ورودیها متصلند لایه ورودی، عصبهایی که به خروجیها متصلند لایه خروجی و سایر عصبها لایه های میانی (پنهان) را تشکیل میدهند. بدین ترتیب چنین شبکه ای میتواند یک نکاشت غیرخطی از ورودیها به خروجیها برقرار کند. بعبارت دیگر شبکه های عصبی پیشخور بصورت یک جعبه سیاه توانایی برقراری ارتباطی نامعین بین ورودیها و خروجیهای یک سیستم را دارا میباشند و ایم امر مناسبست برای تحلیل سیستمهایی که با مسایل مقدار اولیه- مرزی توصیف شده اند که جواب تحلیلی نداشته یا جواب تحلیلی شان بسادگی قابل محاسبه نیست.
مهمترین کاربرد پرسپترونهای چند لایه که باعث تحولی عظیم در تاریچه شبکه های عصبی مصنوعی شد، عبارتست از قابلیت تقریب زدن توابع چند متغیره حقیقی آنهم بصورت سراسری و بفرم بسته تحلیلی بعبارت دیگر چنین شبکه هایی شرط وجود تعداد کافی از عصبها، لایه ها و تعادلات بین اعصاب و وجود تابع تحریک زیگموئید (تعمیم یافته) در لایه های میانی، تقریب زننده های جهانی اند. یعنی می توانند برای تقریب زدن هر تابع اندازه پذیر بوری تعریف شده روی یک ابرمکعب (هرقدر که پیچیده باشد) با هر دقتی آموزش داده شوند. البته باید توجه داشت که طبق غیرخطی بودن حداقل شرط برای توابع تحریک لایه های میانی میباشد.
همچنین بطورکلی تعداد لایه های میانی در معماری پرسپترون لازم نموده و تنها یک لایه پنهان کافیست و دقت تقریب وابسته به تعداد اعصاب در لایه میانی شبکه میباشد، نه تعداد لایه های پنهان، البته باید دانست که بکارگیری تعداد لایه های میانی بیشتر میتواند منجر به استفاده از تعداد کمتری عصب در کل شبکه شود. در مورد تعداد اعصاب در کل شبکه نیز قضیه وجودی کولموگروف وجود دارد که نتیجه میدهد میتوان مقادیر هر تابع پیوسته متغییر، تعریف شده یک ابرمکعب تنها توسط حاصلجمع های خطی و توابع غیرخطی پیوسته و اکیداً صعودی یک متغیره، محاسبه نمود. براساس این قضیه یک پرسپترون سه لایه شامل عصب با استفاده از توابع غیرخطی پیوسته و اکیداً صعودی میتواند هر تابع پیوسته متغیره را محاسبه نماید. باید توجه داشت. که این قضیه در مورد ضابطه توابع یک متغیره مورد نیاز مسکوتت. در مورد کران خطای تحمیلی که با فیکس کردن ضابطه توابع تحریک، عارض میشود نیز قضیه ساختاری سای بنکو وجود دارد که براساس آن میتوان دقت تقریب تابع بوسیله شبکه عصبی را کنترل نمود. از لحاظ تاریخی قضیه صعودی انطباق کولموگروف بیان میدارد که به ازای هر تابع پیوسته، توابع و ثوابت وجود دارند بقسمیکه.
البته باید توجه داشت که ساختن توابع یک متغیره فوق ممکنست پیچیده و حتی غیرممکن باشد. اما قضیه ساختاری تقریب سای بنکو مشخص میسازد که به ازای هر تابع پیوسته و تابع تحریک فقط کرانوله و داده شده، عدد طبیعی و ثوابت حقیقی و و وجود دارند بقسمیکه روی
در همین راستا باید گفت که شبکه های عصبی مصنوعی پیشخور در تقریب زدن تابعکها و عملگرها نیز بکار رفته اند، بنحویکه در حالت حدی با نامتناهی شدن تعداد اعصاب در شبکه تقریب نیز دقیق میشود.
تنها نکته ای که در مورد شبکه های عصبی پیشخور باقی میماند عبارتست از مسئله یادگیری این شبکه ها. در بعضی حالات کلی فرآیند یادگیری پرسپترونهای چند لایه یک مسئله بد حالت و زمانگیر میباشد که البته برای اجتناب از این مشکل، در هر مورد بایستی برخورد خاص آن مورد انجام شود.
بعنوان مثال افزایش اطلاعات ورودی شبکه و استفاده مناسب از روشهای مینیمم سازی خطا غالباً میتواند کارساز باشد.
3.توصیف کلی مسئله و روش:
برای توصیف روش جدید، مسئله مقدار اولیه- مرزی دستگاه معادلات دیفرانسیل جزئی وابسته بزمان زیر را در نظر میگیریم.
که در آن توابع برداری چند متغیره بترتیب نشاندهنده دستگاه معادلات دیفرانسیل جزئی وابسته بزمان و شرایط اولیه و مرزی مسئله از مراتب دلخواه (در حالت کلی غیرخطی)، تا متغییر مستقل زمان، متغییر مستقل فضا، متغییر چند اندیسه، عملکرد برداری دیفرانسیل جزئی مختلط مرتبه تابع برداری حقیقی متغییر و تحلیلی روی دامنه ابر مکعبی سیلندری جوابیست که می بایست محاسبه شود. البته باید دقت کرد که در فوق مرتبه، نوع و ابعاد دستگاه معادلات مسئله و نیز مرتبه، نوع و تعداد شرایط اولیه و مرزی آن هیچگونه محدودیتی ندارد و خوش خیمی مسئله از لحاظ تحلیلی در حالات مختلف قابل بحث و بررسی است[1] .
طبق مطلب بخش قبل دریک درایم عصبی جواب آزمون (تقریبی) عصبی شامل شبکه عصبی پیشخور و سه لایه شبکه عصبی و سه لایه دارای پارامترهای قابل تنظیم ضرایب عصبی و اریبها در ساختار پرسپترون چند لایه برای جواب وجود دارد، بنحویکه با قضاوت مناسب درمورد مقادیر پارامترهای تنظیم، به اندازه کافی بجواب نزدیک می شود. میزان این نزدیکی را می توان به وسیله یک فرم مناسب مثلاً توصیف نمود. بنابراین مسئله اصلی (1) به دسته مسایل مینیمم سازی نا مقید و پیوسته باقیمانده ها زیر تبدیل خواهد شد.


تعداد صفحات : 14 | فرمت فایل : WORD

بلافاصله بعد از پرداخت لینک دانلود فعال می شود