کوشا فایل

کوشا فایل بانک فایل ایران ، دانلود فایل و پروژه

کوشا فایل

کوشا فایل بانک فایل ایران ، دانلود فایل و پروژه

دانلود پایان نامه پردازش فضا - زمان در کانال های MIMO

اختصاصی از کوشا فایل دانلود پایان نامه پردازش فضا - زمان در کانال های MIMO دانلود با لینک مستقیم و پرسرعت .

دانلود پایان نامه پردازش فضا - زمان در کانال های MIMO


دانلود پایان نامه پردازش فضا - زمان در کانال های MIMO

پرداز ش فضا - زمان در کانال های MIMO

 

 

 

 

 

 

لینک پرداخت و دانلود *پایین مطلب* 

فرمت فایل:PDF

تعداد صفحه:155

پایان نامه برای دریافت درجه کارشناسی ارشد “M.Sc”
گروه مهندسی برق گرایش مخابرات سیستم

چکیده :

پس از احساس نیاز در نسل سوم مخابرات سیار به سرعت انتقال بالاتر و ظرفیت بیشتر و داشتن کیفیتی مانند تلفن ثابت، نظریه به کارگیری کانال های MIMO توجهات بسیاری را به خود جلب کرد. برای استفاده هرچه بهتر از این کانال ها، علاوه بر اجرای تکنیک دایورسیتی فضایی در کانال های MIMO، می توان سمبل ها را در چندین بازه زمانی مختلف ارسال نمود و همزمان دایورسیتی زمانی را نیز به اجرا درآورد. الگویی که برای اجرای همزمان این دو دایورسیتی به کار می رود، کدهای فضا – زمان نامیده می شود. درست است که اعمال کدهای فضا – زمان بر روی سمبل های ارسالی، کیفیت دریافت را افزایش می دهد، اما متاسفانه پردازش این گونه کدها، زمان زیادی را می طلبد و این، با نیازمندی های مخابرات بی سیم نسل 3 و بالاتر همخوانی ندارد. به همین دلیل توجهات به روش های کدگشایی شبه بهینه جلب شد که در آنها در ازای اندکی تقلیل عملکرد سیستم، پیچیدگی کدگشایی به شدت کاهش پیدا می کند. یکی از این روش ها که بر مبنای اصول کدگشایی ML استوار است، به کدگشایی کروی مشهور است. تحقیقات قبلی نشان داده که کدگشایی کروی روی سمبل های M-QAM در کانال های MIMO عملکرد مناسبی دارد و امروزه تحقیقات حول کاهش هرچه بیشتر پیچیدگی الگوریتم های این گونه کدگشایی قرار دارد. در این پایان نامه، پس از بررسی کدهای فضا – زمان و اصول کدگشایی آنها، الگوریتم II، یکی از پرکاربردترین روش های پیاده سازی کدگشایی کروی، بررسی می گردد. در ادامه، پیشنهادی برای بهبود عملکرد الگوریتم II ارائه شده که با زبان نمودارهای حاصل از شبیه سازی کانال میزان این بهبود نشان داده می شود. همچنین پیشنهادی نیز برای کاهش پیچیدگی الگوریتم II بیان شده است که با استخراج نتایج حاصل از شبیه سازی این ایده، تاثیر مثبت آن در کاهش پیچیدگی الگوریتم II تغییریافته در کانال های MIMO آشکار می شود.

علاوه بر این، در این تحقیق با به کارگیری نتایج شبیه سازی کانال های MIMO در حالات گوناگون (تعداد متنوع آنتن، SNRهای مختلف و M-QAMهای گوناگون)، با دقت بالا، نشان داده می شود که مقدار اولیه شعاع کره ای که برای کدگشایی کروی انتخاب می شود چه تاثیری در عملکرد و پیچیدگی سیستم دارد. در نهایت با تحلیل نتایج شبیه سازی، راهکاری برای انتخاب مناسب “شعاع اولیه کره جستجو” به عنوان شرایط اولیه الگوریتم II ارائه می گردد.

در اواخر دهه نود میلادی، به کارگیری دایورسیتی فضایی که در گیرنده، برای افزایش بهره و کاهش اثر فیدینگ مرسوم بود، در فرستنده نیز مورد توجه قرار گرفت. به دنبال آن تحقیقات گوناگونی نشان دادند که تحت ساختارهای خاصی، کانال های بی سیم که چندین آنتن ارسال و چندین آنتن دریافت داشته باشند یا اصطلاحا MIMO باشند، دارای کیفیت و ظرفیت بهتری خواهند بود. از آن زمان بود که ایده کدینگ فضا – زمان شکل گرفت تا با ترکیب دایورسیتی فضایی، دایورسیتی زمانی و کدینگ مناسب، سیستم از مزایای هر سه تکنیک برخوردار شود.

در سال 1998 اولین و ساده ترین کد فضا – زمان در مأخذ [1] برای 2 آنتن ارسال و 2 آنتن دریافت ارائه شد که به دلیل خطی بودن کد، کدگشایی ساده ای داشته ولی با وجود این برای آشکارسازی نهایی کد از کدگشای ML استفاده می شد. در سال 1999 در مأخذ [2] کد فضا – زمان جدیدی برای بیش از 2 آنتن پیشنهاد شد که اصولش شباهت زیادی به کد فضا – زمان قبلی داشت. در همان سال معیارهای ریاضی طراحی کدهای فضا – زمان که بهره کدینگ و بهره دایورسیتی مناسب را تامین کند در مأخذ [3] منتشر شد. از آن به بعد، با به کارگیری این معیارها، کدهای فضا – زمان گوناگونی طراحی گردیدند. براساس اصول طراحی، این کدها به دسته های مختلفی تقسیم می شوند که هریک چند شرط از شرایط زیر را برآورده می سازند:

1) تأمین حداکثر ظرفیت

2) حداکثر عملکرد

3) نرخ انتقال بالا

4) کمترین پیچیدگی در مرحله کدگشایی

5) داشتن دایورسیتی کامل با هر نوع منظومه و هر تعداد از آنتن های ارسال و دریافت

سال ها بود که مزایای مدولاسیون چند سطحی M-QAM شناخته شده بود، با رواج کانال های MIMO و بالا رفتن سرعت انتقال، لزوم استفاده از این مدولاسیون بیشتر احساس شد. از طرفی به علت ساختار لتیسی منظومه این نوع مدولاسیون، مناسبترین مدولاسیون برای کدگشایی آسانتر در کانال های MIMO به حساب می آید و در تحقیقات کنونی روی کدهای فضا – زمان، بیشتر همین مدولاسیون را به کار می برند.

تحقیقات گوناگونی که روی عملکرد کدهای فضا – زمان صورت گرفت، نشان داد که کدگشایی نقش عمده ای روی کارآیی سیستم دارد. کدگشایی ML در این موارد بهترین عملکرد را داراست. اما به دلیل اجرای طولانی این نوع کدگشایی، خصوصا وقتی منظومه پرنقطه باشد، مناسب مخابرات بی سیم کنونی نیست. در سال 1998 در مأخذ [4]، روش شبه بهینه ای به نام کدگشایی کروی برای اجرای کدگشایی ML به کار گرفته شد و پس از آن در اکثر تحقیقات از آن استفاده شد. در سال 2003 در مأخذ [5] الگوریتم های مناسب کدگشایی کروی برای اجرای کدگشایی ML روی کانال های MIMO گوسی خطی ارائه شد که بیش از گذشته کیفیت این کدگشایی را برای لتیس های محدود نشان داد. همچنین تحقیقات گوتاگونی عمدتا برای بهینه سازی الگوریتم های اجرای کدگشایی کروی و کاهش میزان محاسبات این الگوریتم ها صورت گرفت. در همین راستا در سال 2005، مأخذ [6] الگوریتم II (ارائه شده در مأخذ [5]) را برای منظومه های M-QAM مستطیلی بهبود بخشید و عملکرد آن را برای منظومه 64-QAM در کانالهای فیدینگ MIMO با 4 آنتن ارسال و 4 آنتن دریافت، شبیه سازی نمود. الگوریتم های کدگشایی کروی بر “انتخاب یک کره و پیدا کردن نزدیک ترین نقطه لتیس به سیگنال دریافتی که در این کره محصور باشد”، استوار است. در بسیاری از مقالات اخیر اشاره شده است که انتخاب شعاع این کره در میزان محاسبات الگوریتم نقش عمده ای دارد؛ اما در مورد میزان این نقش بحثی به میان نیامده است. در این پایان نامه با استفاده از نرم افزار MATLAB، کانال های MIMO با فیدینگ تخت رایلی و مدولاسیون M-QAM مستطیلی شبیه سازی شده و الگوریتم II برای کدگشایی ML رشته های ارسالی در این اعمال گردیده است. با این کار تاثیر دقیق انتخاب شعاع کره در میزان محاسبات کدگشایی، در کانال های MIMO در شرایط متفاوت از لحاظ تعداد آنتن های ارسال و دریافت، تعداد نقاط منظومه و میزان SNR نشان داده شده است. همچنین در این تحقیق مشخص شده است که اندازه شعاع اولیه کره در عملکرد سیستم نیز تاثیر دارد. علاوه بر این در اینجا پیشنهاد شده است که با انتخاب شعاع نهایی کره؛ می توان از محاسبات اضافی که تاثیری در عملکرد سیستم ندارد؛ کاست. این پیشنهاد با شبیه سازی ایده و استخراج نتایج شبیه سازی در کانال های MIMO، کاملا بررسی شده است.

ساختار کلی پایان نامه به شرح زیر است:

در فصل اول به مزایای کانال های MIMO، ظرفیت آنها و انواع کدینگ کانال که برای این کانال ها رایج است، پرداخته شده تا جایگاه کدینگ فضا – زمان و کدگشایی نگاشت، در این کانال ها مشخص شود. در انتهای این فصل، انواع فیدینگ و نویز در کانال های بی سیم ارائه شده تا فرضیات شبیه سازی کانال که در این پایان نامه استفاده شده، واضح تر گردد.

در فصل دوم، مدولاسیون M-QAM و پارامترهایش معرفی شده و سپس لتیس ها و تئوری های مربوط به آن ارائه می گردد تا به کمک ریاضیات، ارزش و توانایی های این مدولاسیون در کانال های MIMO شناخته شود و دلیل انتخاب آن در اینجا مشخص شود.

در فصل سوم، اصول کدینگ فضا – زمان و معیارهای انتخاب کد مناسب بررسی می شود تا مقدمه ای برای برشمردن چند نوع باارزش از این کدها باشد. در ادامه در فصل چهارم چند نوع از انواع کاربردی کدینگ فضا – زمان، به ترتیب از ساده به پیچیده، معرفی شده و تا حدی به خواص شان پرداخته می شود. با معرفی هریک از روش های کدینگ، روش مناسب کدگشایی آن که در مقالات پیشنهاد شده، ارائه می شود تا وابستگی پردازش این کدها به کدگشایی و اهیمت این روش کدگشایی در عرصه کدینگ فضا – زمان نمایان شود.

و...

NikoFile


دانلود با لینک مستقیم

مقالات فارسی پردازش زبان طبیعی NLP

اختصاصی از کوشا فایل مقالات فارسی پردازش زبان طبیعی NLP دانلود با لینک مستقیم و پرسرعت .

مقالات فارسی پردازش زبان طبیعی NLP


مقالات فارسی پردازش زبان طبیعی NLP

 

 

 

 

 

 

 

 

در این قسمت ۵۸ مقاله فارسی در مورد پردازش زبان طبیعی زبان فارسی با موضوعات زیر ارائه می گردد:

۱ طراحی و پیاده سازی یک سامانه ترجمه فارسی به انگلیسی
۲ بازشناسی حروف برخط فارسی با استفاده از مدل مخفی مارکوف
۳ آنالیز احساسی متون فارسی
۴ بررسی ویژگی های وابسته به فرکانس پایه لهجه های مختلف زبان فارسی
۵ ارائه یک سیستم پیشنهادی به‌منظور کشف تقلب در متون فارسی با پیچیدگی ساده بر اساس تکنیک‌های پردازش تصویر و سیستم‌های هوشمند مصنوعی
۶ چارچوبی برای تشخیص خودکار آیات قرآن در متون فارسی و عربی
۷ تبدیل متن فارسی به زنجیره واجی با استفاده از تحلیلگر صرفی
۸ بازشناسی برون خطی کلمات دست نویس فارسی مبتنی بر بردار های ویژگی ترکیبی و انتخاب مثال های مؤثر در آموزش با استفاده از الگوریتم FCNN
9 نشانه‌گذاری آماری متون فارسی برای استفاده در موتورهای جستجو
۱۰ پیاده سازی یک غلط یاب املایی فارسی تحت وب
۱۱ ایجاد خودکار نمایه (Index) برای تصاویر متنی به زبان فارسی
۱۲ بررسی چند روش آستانه گیری برای بهبود تصاویر نسخ خطی فارسی
۱۳ به کارگیری تکنیک های پردازش متن در دسته بندی خودکار کلیپ های ویدئویی
۱۴ ارزیابی کیفیت سیستم های تبدیل متن به گفتار فارسی بصورت مفعولی و مستقل از متن با استفاده از مدل پنهان مارکوف
۱۵ آشکارسازی، حذف متن و بازیافت اطلاعات اولیه با استفاده از پردازش تصاویر دیجیتال
۱۶ بازشناسی ارقام دستنویس فارسی مقاوم در برابر چرخش و تغییر مقیاس توسط طبقه بندی کنندۀ SVM فازی مبتنی بر خوشه بند K-means
17 مجموعه داده های برخط حروف تنهای کردی و فارسی
۱۸ خوشه بندی متون مبتنی بر مرکز دسته با استفاده از روش SVD وبهره گیری از نقاط همسایگی
۱۹ ارائه یک ابزار ارزیابی خودکار خلاصه سازهای چکیده ای فارسی با بهره گیری از شبکه واژگان
۲۰ بهبود دسته بندی متون فارسی در روش همسایگی وزن دار
۲۱ بهبود کارایی سیستم خلاصه ساز متون فارسی با استفاده از الگوریتم هرس در شبکه های عصبی
۲۲ استفاده از بازآرایی نحوی جهت بهبود ترجمه ماشینی آماری انگلیسی به فارسی
۲۳ انتخاب ویژگی‏های مناسب برای توصیف شکل کلمات چاپی با استفاده از توصیفگر مکان‏های مشخصه
۲۴ طراحی و ساخت پیکره ی متنی برای حوزه ی تخصصی فاوا
۲۵ حذف واترمارک قابل مشاهده از تصاویر اسکن شده‌ی حاوی متن فارسی
۲۶ پیش بینی خصوصیات روانشناختی افراد از روی دستخط های فارسی
۲۷ حذف تصویر پس زمینه در تصاویر اسکن شده کتب فارسی
۲۸ تشخیص کلام با استفاده از تکنیک های بینایی
۲۹ دسته بندی متون فارسی با استفاده از یادگیری نیمه نظارت شده
۳۰ پیاده سازی یک سیستم کنترل خطای املایی در زبان فارسی بر اساس کدگذاری Soundex
31 تشخیص دیداری-شنیداری حروف صدا دار فارسی
۳۲ تعیین هویت نویسنده با استفاده از اختلاط خبره ها(ME) و به کارگیری الگوریتم PCA جهت کاهش ویژگی ها در متون دستنویس فارسی
۳۳ استخراج بهترین ویژگی از متون فارسی با استفاده از تجزیه و تحلیل مؤلفه های اصلی با کمک میانگین یادآوری و الگوریتم ژنتیک
۳۴ مطالعه مقایسه ای روش های مبتنی بر یادگیری ماشین در تشخیص نویسنده فارسی زبان بر اساس سبک نوشتاری
۳۵ بررسی تأثیرارتقاء تصویر و اصلاح شیب در بهبود نرخ بازشناسی ارقام جدا شده از اسناد دست‌نویس فارسی
۳۶ بررسی ریشه یاب های واژگان زبان فارسی و تاثیر آنها در کارایی سیستم های بازیابی اطلاعات متنی
۳۷ معرفی روشی جدید در سیستم های پردازش زبان فارسی با استفاده از اصول دستوری
۳۸ استفاده از تنوع قواعد دستوری و نوشتاری برای پنهان نگاری درزبان فارسی
۳۹ روشی جدید برای استخراج متن فارسی از تصاویر بر اساس آشکارسازی لبه های رنگی در حوزه موجک
۴۰ تعیین محدوده جملات فارسی به کمک درخت تصمیم گیری
۴۱ طراحی ابزار پارسر زبان فارسی
۴۲ طراحی یک سیستم توصیه‏گر ترکیبی معنایی با استفاده از تکنیک‏های پردازش زبان طبیعی فارسی
۴۳ خلاصه سازی گزینشی متون فارسی مبتنی برخوشه بندی PSO
44 دسته بندی روش های محاسبه میزان تشابه معنایی لغات و جملات با بهره گیری از شبکه واژگان
۴۵ پیدا کردن تنوع عرض قلم در تصاویر نقشه‌های شهری
۴۶ خلاصه سازی چکیده ای مبتنی بر مشابهت جملات
۴۷ خوشه بندی جملات فارسی مبتنی برالگوریتم های هوش جمعی
۴۸ ۱باینری سازی تصاویر نوشته های قدیمی و با کیفیت پایین
۴۹ ۲باینری سازی تصاویر نوشته های قدیمی و با کیفیت پایین
۵۰ مقایسه روش مارکوف مخفی و پردازش زبان های طبیعی در مدل سازی آماری زبان فارسی
۵۱ An Introduction to Noor Corpus and its Language Model
52 Classification of Persian accents speech using histogram of pitch contour
53 Semantically Clustering of Persian Words
54 Summarizing Persian Text as an Important Application
55 Comparison of Farsi Vowel Intonation with Different Languages for Teaching and Preserving Original Accent
56 Preparing an accurate Persian POS tagger suitable for MT
57 Language Discrimination and Font Recognition in Machine Printed Documents Using a New Fractal Dimension
58 Farsi Machine-printed Subwords Recognition Using Contour-based Fourier Descriptors

تمام فایل ها در یک فایل فشرده به حجم ۳۸ MB  موجود است.

تمام فایل ها به صورت پی دی اف می باشد.


دانلود با لینک مستقیم

دانلود مقاله پردازش اطلاعات در ذهن

اختصاصی از کوشا فایل دانلود مقاله پردازش اطلاعات در ذهن دانلود با لینک مستقیم و پرسرعت .

دانلود مقاله پردازش اطلاعات در ذهن


دانلود مقاله پردازش اطلاعات در ذهن

تاریخ نشانگر تغییر و تحول بسیار در عصرهای مختلف می‌باشد. با هر نسل ابزارها، سنت‌ها و عقاید جدید رشد می‌کنند و این موضوع در آغاز قرن بیستم از جایگاه ویژه‌ای برخوردار است. نظام‌های اجتماعی، اقتصادی، سیاسی در حال تحول می‌باشند. ابزارهای جدید موجب پدید آمدن روشهای نوین و نیز چالش در اندیشه انسانی شده و با این چالش تفکرات جدید متولد می‌شوند و در نتیجه نظام‌هایی متنوع و سازگار با نیازهای اجتماعی جدید خلق می‌شوند. زمانی که ایده مرتبط ساختن کامپیوتر به وسیله تلفن در سال 1965 به وسیله دو نفر از محققان به نام‌های لری رابرتز (Lary Roberts) و توماس مریل (Thomas Merril) مطرح گردید و توانستند دو کامپیوتر یکی در کالیفرنیا و دیگری در ماساچوست را به هم وصل نمایند هیچ کس تصور نمی‌کرد که این فناوری بتواند چنین تحولی در جوامع بشری ایجاد کند. در سال 1972، رابرتز اولین حافظه E-mail را نوشت. در سال 1980 ساخت کامپیوترهای شخصی با سرت و حافظه بیشتر توسعه یافت و در دهة 1990 با طراحی شبکه جهانی وب  (world wideweb) و گسترش ناگهانی اینترنت تحولی عظم در فناوری اطلاعات به وجود آمد که این فناوری بر روی دانش، آموزش، یادگیری، ارتباطات و دهها مقوله دیگر تأثیر بسزایی گذشت و این موضوع آنچنان سریع رخ داد که بسیاری از دست‌اندرکاران، سیاستگذاران و رهبران آموزش عالی را حتی در کشورهای پیشرفته غافلگیر نمود. به طوریکه پیش بینی می‌شود پس از پایان دهة اول 21 کمتر فعالیت آموزشی و پژوهشی بدون استفاده از اینترنت و ارتباطات کامپیوتری صورت پذیرد. (chronicle of Higher Education, 2001)

مراکز آموزش عالی اغاز مسیر استفاده از اشکال مختلف فناوری اطلاعات برای بهبود آموزش، پژوهش و خدمات اجتماعی را طراحی می‌کنند و این ابزار به عنوان منبع قوی وارد آموزش عالی شده است. (Szatmary, 2000)

در عصر حاضر شکاف شمال و جنوب ناشی از شکاف علمی و فناوری میان این دو گروه از کشورهاست. پر کردن این فاصله محتاج رویکردی نوین و متفاوت به آموزش در سطوح مختلف و برنامه ریزی صحیح و بلندمدت با استفاده از فناوریهای نوین می‌پردازد.

مفهوم آموزش در تمام طول زندگی یکی از کلیدهای ورود به هزاره جدید است. این مفهوم به دلیل پاسخگویی به مسئله تغییر و تحول جهان و نیز به دلیل مزیت‌های انعطاف پذیری و تنوع و قابل دسترس بودن، خود مفهومی ضروری است. به علاوه این مفهوم از تمایز سنتی آن میان آموزش اولیه مدرسه‌ای و آموزش پیوسته پا را فراتر می‌گذارد. (ادگارفورد، 1972) بنابراین آموزش مداوم و مادام العمر می‌تواند از نخستین راهبردهایی باشد که مورد توجه تصمیم سازان آموزش به ویژه فنی و حرفه‌ای و عالی قرار گیرد. قابلیت انعطاف دانشگاه‌ها و متعاقب آن دانش آموختگان و آمادگی برای فراگیری و همگامی با فناوریهای نوین باید سرلوحه برنامه‌ریزان آموزشی آینده باشد. چه بسا دانشگاه‌هایی که آموزش پایه‌ای خوبی را ارائه دهند. اما اگر این آموزش در قالبی خشک و منجمد ارائه شود، نمی‌تواند آموزش صحیح و اصولی در قرن حاضر محسوب شود. و این اصل صرفا شامل حاصل اساتید و دانشجویان نخواهد شد بلکه دانش آموختگان نیز باید بتوانند قابلیت انعطاف را در خود فراهم آورند تا بتوانند در عرصه رقابت‌های حرفه‌ای و عملی باقی بمانند.

امروزه هیچ کس نمی‌تواند منکر اهمیت آموزش و مهارت‌ آموزی شود و پس از جنگ جهانی دوم تقریبا اکثریت نظام‌های آموزشی به این اهمیت پی برده‌اند. وانگهی امروزه ما در سیاره‌ای زندگی می‌کنیم که ساکنان آن ارتباط گسترده‌ای با یکدیگر دارند و تداوم پیشرفت فناوری موجب ایجاد تحولات نوینی در این مناسبات خواهد شد و به عصری گام نهاده‌ایم که دانش و مدیریت دانش نقش عمده‌ای در زندگی هر یک از ما ایفا می‌کند.

 
کلیات
1-1- فناوری اطلاعات و پردازش اطلاعات در ذهن
1-2- فن آوری اطلاعات و آموزش
1-3- مروری بر آموزش الکترونیکی
1-6- نسل‌های تکنولوژی اطلاعات
1-7- مفهوم تکنولوژی آموزشی و ابعاد آن
1-8- اثر بخشی تکنولوژی در آموزش
1-9- کامپیوتر در خدمت آموزش
1-10- فناوری آموزشی به کدام سو حرکت می‌کند؟
1-11- گرایشهای نوین در فنآوری آموزشی
1-12- تحول نحوة آموزش و یادگیری
1-13- تغییر وظیفه و کار معلم
1-14- کار گروهی و از بین رفتن موانع روانی تعلیم گیرندگان
1-15- کامپیوتر، استاد همیشه در دسترس
1-16- مراحل فناوری در محیط آموزشی
1-16-1- فناوری توزیعی (Distribution technology)
1-16-2- فناوری تعاملی (Interactive technology)
1-16-3- فناوری اشتراکی (collaborative technology)
2-2- روش پژوهش در علم و تکنولوژی آموزشی
2-3- تکنولوژی آموزشی، رویکردی مؤثر در رشد و توسعه اقتصادی، اجتماعی و صنعتی
2-4- تکنولوژی آموزشی ، رویکردی مؤثر در توسعه کمی و کیفی نظام آموزشی عالی
2-5- ارزشیابی و تجدید نظر در نظام آموزش عالی با تکیه بر کاربرد علوم و تکنولوژی‌ آموزشی
2-6- همکاریهای‌ بین المللی و منطقه‌ای
2-7- تکنولوژی آموزشی، چارچوبی مؤثر در توسعه یادگیری و بهبود آموزش
2-8- تکنولوژی آموزشی، نیروی محرکه فرآیند توسعه آموزشی
2-9- جهان گرایی تکنولوژی آموزشی
2-10-1 - رویکرد سنتی (فناوری اطلاعات به مثابه تکنولوژی آموزشی)
2-10-2- رویکردهای نوین
3-2- رئوس کار سیستم آموزشی جوامع
3-3- نیازهای اساسی آموزشی
3-4- آموزش باز
3-5- آموزش از راه دور و شکل گیری دانشگاه مجازی
3-6- آموزش از راه دور ، فرصت‌ها و چشم اندازها
3-7- دلایل نیاز به آموزش الکترونیکی
3-9- فلسفه‌های آموزش
3-11- آموزش مجازی
3-12- انواع آموزشهای وب – محور
3-12-1- مکاتبه غیر همزمان
3-12-2- مکاتبه همزمان
3-12-3- کلاس‌های برتر وب
3-12-4- کلاس‌های تحت مدیریت وب
3-12-5- توزیع دو جانبه
3-13- طبقه بندی پنج گانه آموزش وب – محور
3-14- ضرورت ایجاد آموزشهای الکترونیکی (مجازی)
3-15- سرویس‌های آموزش الکترونیکی
3-15-1- آموزش الکترونیکی برای آموزشهای شغلی
3-15-2- آموزش الکترونیکی در سطح دانشگاه‌ها
3-15-2-1- دانشگاه‌هایی که فقط دارای سرویس آموزش از راه دور اینترنت می‌باشند:
3-15-2-2- دانشگاه‌های سنتی به همراه دانشگاه‌های اینترنتی
3-15-2-3- سیستم‌های آموزش از راه دور با همکاری دانشگاه‌های مختلف
3-15-3- آموزش الکترونیکی برای جستجو کنندگان کار
3-15-4- آموزش الکترونیکی برای عموم
3-15-5- آموزش الکترونیکی جهت ایجاد ارتباط بین کشورها
3-16- روش‌ها و ابزارهای آموزش الکترونیکی
3-16-1- تلویزیون آموزشی
3-16-2- ویدئو کنفرانس تعاملی
3-16-3- آموزش مبتنی بر اینترنت
3-16-4- آموزش مبتنی بر وب WBT
3-16-4-1- WWW چیست؟ (World Wide Web)
3-17- مؤسسات آموزش از راه دور
3-17-1- مؤسسات آموزش از راه دور مستقل
3-17-2- مؤسسات مرکب (دانشکده‌های آموزش از راه دور بصورت سازمان‌های غیر رسمی):
3-18-تمهیدات‌لازم‌برای استفاده از آموزش از راه دور آغاز هزاره سوم
3-18-1- آمادگی دانشجویان
3-18-2- آمادگی نظام آموزشی
3-18-3- آمادگی مؤسسه آموزشی
3-19- رسانه‌ها و مواد آموزشی در آموزش از راه دور
رسانه‌های مورد استفاده در آموزش از راه دور
3-21-2- استادان
3-21-3- کاربران و استادان
3-21-4- مدیران
4-2- تاریخچه دانشگاه مجازی
4-3- انواع دانشگاه مجازی
4-4- خصوصیات دانشگاه مجازی
4-4-1- لایه سازمانی
4-4-2- صدور حق تکثیر
4-4-3- تضمین کیفیت
4-4-4- لایه زیرساختاری
4-5- صحن دانشگاه مجازی
4-6- ثبت نام و پرداخت شهریه
4-8-2- مزایا برای مربیان
4-8-3- مزایا برای مؤسسات آموزشی
5-2- سودها برای مصرف کننده‌ها
5-3- چگونه محتوای آموزشی الکترونیک در سازمان شما توسعه می‌یابد؟
5-4- چگونه سازمان شما خدمات آموزش الکترونیک را ارائه می‌دهد؟
5-5- سازمان شما چگونه میزان موفقیت آموزش الکترونیک را اندازه می‌گیرد؟
دعوت اصلی
حول این سه فاکتور چهار عنصر مکمل متمرکز هستند:

 

شامل 206 صفحه فایل word


دانلود با لینک مستقیم

ابزارهای لازم برای پردازش متن در زبان فارسی

اختصاصی از کوشا فایل ابزارهای لازم برای پردازش متن در زبان فارسی دانلود با لینک مستقیم و پرسرعت .

ابزارهای لازم برای پردازش متن در زبان فارسی


 

 

 

 

ابزارهای لازم برای پردازش متن در زبان فارسی

تشخیص دهنده ی جمله: این ابزار باید با توجه به کاراکترهای جداکننده ی جمله در زبان فارسی، توانایی تشخیص جملات را در متن ورودی داشته باشد. برای ایجاد این ابزار باید ابتدا تمامی کاراکترها، نماد ها و احیاناً قواعد دستوری که باعث شکسته شدن جملات می شوند، شناسایی گردند. با توجه به پایه بودن جمله در بسیاری از پردازش های زبانی، خروجی دقیق این ابزار از درجه ی اهمیت بالایی برخوردار است. از نمونه های انگلیسی آن می توان به OpenNLP، Stanford NLP، NLTK و Freeling اشاره کرد.

Tokenizer: ابزاری برای شکستن یک متن بر اساس واحدهای با معنی مانند کلمه، پاراگراف، نمادهای معنادار مانند space و  tab و … . لازمه ی ایجاد این ابزار جمع آوری واحد هایی است که در زبان فارسی به عنوان واحد های مستقل معنایی شناخته می شوند. سپس بر اساس انتخاب هر کدام از این واحدها متن بر اساس آن شکسته خواهد شد. از نمونه های انگلیسی آن می توان به Flex، JLex، JFLex، ANTLR، Ragel و Quex اشاره کرد.

Named entity recognition: ابزاری برای تشخیص اسامی و نوع آنها اعم از اسامی افراد، اماکن، مقادیر عددی و … . برای تشخیص اینکه یک کلمه اسم است، راه های مختلفی وجود دارد که از جمله ی آنها مراجعه به لغتنامه، مراجعه به word-net، در نظر گرفتن ریشه ی کلمه، استفاده از قواعد نحوی ساخت واژه و … می باشد. در این ابزار پس از تشخیص اسم ها با استفاده یک لغتنامه از اسامی افراد، مکان ها، مقادیر عددی و … نوع اسم تشخیص داده می شود. به نظر می رسد که این لغتنامه در فارسی موجود نمی باشد.

از جمله نمونه های انگلیسی این ابزار می توان به Stanford NER و Illinois NER اشاره کرد.

Word-net: مجموعه ای از لغات و ارتباط میان آنها به لحاظ معنایی. ارتباطات معنایی در داخل این مجموعه شامل ۱۶  رابطه  می باشد. این مجموعه به عنوان یک مرجع در بسیاری از پردازش های زبانی مورد استفاده قرار می گیرد. ار نمونه های انگلیسی آن می توان به Princeton Wordnet و EuroWordnet اشاره کرد. آزمایشگاه فناوری وب دانشگاه فردوسی مشهد نیز یک نمونه از این مجموعه با نام فردوس نت را تولید کرده است.

Stemmer: ابزاری برای ریشه یابی لغات و تشخیص نوع کلمه ساخته شده از آن ریشه (اسم مکان، اسم زمان، حالت فاعلی، مفعولی و …). معمولاً ریشه یابی لغات بر اساس قواعد ساخت واژه ای و سپس حذف پسوندها می باشد. تاکنون روش مؤثری برای حذف پیشوندها ارائه نشده است. در تلاشی که در آزمایشگاه فناوری وب انجام شده است، سعی شده تا بر اساس آنالیزهای آماری و داده کاوی پسوندها حذف گردند، که این روش هم می تواند راهی برای تشخیص ریشه باشد.

معروفترین الگوریتم ریشه یابی در انگلیسی porter می باشد.

Similarity recognition: ابزاری برای تشخیص میزان شباهت میان دو عبارت بر اساس پارامترهای مختلف مانند نوع اسامی مشابه به کار رفته، استفاده از word-net و… . در این ابزار پس از تشخیص نوع کلمات به کار رفته در یک جمله و سپس بر اساس جایگاه آن کلمات در جمله، کلماتی که در جایگاه های یکسان قرار دارند، مورد مقایسه قرار می گیرند. از نمونه های انگلیسی آن می توان به Illinois NESim و Illinois WNSim اشاره نمود.

Chunker: ابزاری برای تشخیص گروه های اسمی، فعلی و …. در یک جمله. جهت تقویت الگوریتم های وابسته به SRL لازم است نه تنها نقش های کلمات مشخص گردند، بلکه باید وابستگی های کلمات به لحاظ نقشی در جمله مشخص گردند. از جمله نمونه های انگلیسی آن می توان به Illinois Chunker  اشاره کرد.

Semantic role labeler: ابزاری برای تشخیص نقش گرامری کلمه در جمله. این ابزار یکی از مهمترین نقش ها را در پردازش های زبانی بر عهده دارد. دقت در این ابزار بسیار حائز اهمیت است. این ابزار باید نقش های گرامری کلمات در جمله ها مانند فعل، فاعل، مفعول مستقیم، مفعول غیر مستقیم و …. را تشخیص دهد. از جمله نمونه های انگلیسی آن می توان به OpenNlP، Illinois SRL، Swirl و LTHSRL  اشاره کرد. این ابزارها از الگوریتم پارسینگ charniak استفاده می کنند.

Annotator: ابزاری برای ایجاد یک نمونه از یک آنتولوژی در یک سند داده شده. از ابزارهای موجود در انگلیسی می توان به Illinois Curator و Stanford Annotator اشاره کرد.

Coreference resolution: ابزاری برای تعیین مرجع اسمی یک اسم یا یک ضمیر در جملات. این ابزار در زبان انگلیسی معادل ابزاری است که مرجع ضمیر را که به صورت اسم در جمله های قبلی آمده است، مشخص می کند. استفاده از ضمایر به جای اسامی در زبان انگلیسی بسیر رایج می باشد. اما در زبان فارسی این امر چندان رایج نیست. اما در زبان فارسی عنوان یک مفهوم اسمی با اصطلاحات مختلف بسیار رایج می باشد. عملاً ما به دنبال ابزاری هستیم که مرجع خاص یک سری از عنوان ها ی مختلف اسمی را مشخص کند. از نمونه های انگلیسی این ابزار می توان به Illinois Coreference package  اشاره کرد.

Pos tagger: ابزاری برای مشخص کردن نوع کلمات از قبیل اسم، صفت، قید، فعل و … . یکی از روش های کاری برای ایجاد این ابزار، ایجاد یک rule base که معمولاً به صورت دستی تشکلیل می شود، برای تشخیص نوع کلمه است. از نونه های فارسی آن می توان به ابزار آزمایشگاه آقای دکتر بیجن خان، و ابزار آزمایشگاه فناوری وب دانشگاه فردوسی مشهد اشاره کرد. از نمونه های انگلیسی آن می توان به Illinois Part Of Speech Tagger و Stanford POS Tagger اشاره کرد.

————————————————————————-

نرمالسازی متن

در ابتدا بایستی همه‌ی نویسه‌های (کاراکترهای) متن با جایگزینی با معادل استاندارد آن، یکسان‌سازی گردند. در اولین گام باید متون برای استفاده در گام‌های بعدی به شکلی استاندارد درآیند. از آنجایی که متون مختلف ممکن است بسیار به هم شبیه باشند اما به دلیل تفاوت‌های ساده ظاهری از نظر ماشین متفاوت باشند؛ به همین دلیل سعی شده است این تفاوت­های ساده‌ی ظاهری برطرف گردد. همچنین اصلاحات دیگری نیز به منظور پردازش دقیق­تر متون در این مرحله صورت می­گیرد.

در اولین گام باید متون برای استفاده در گام­های بعدی به شکلی استاندارد درآیند. از آنجایی که متون مختلف ممکن است بسیار به هم شبیه باشند اما به دلیل تفاوت‌های ساده ظاهری از نظرماشین متفاوت باشند؛ به همین دلیل سعی شده است این تفاوت‌های ساده­ی ظاهری برطرف گردد. برای رسیدن به این هدف، قبل از مقایسه متون، پیش‌پردازش‌هایی روی آنها آنجام می‌شود. طبیعتا هر چه این پیش‌پردازش‌ها قوی‌تر باشد، نتایج حاصل ازمقایسه متون قابل اطمینان­تر خواهد بود. لازم به ذکر است که از آن جایی که زبان فارسی جزو زبان‌های غیر ساختیافته است با مشکلات بسیار بیشتری نسبت به سایر زبان‌ها مواجه خواهیم شد. متون غیرساخت‌یافته، متونی هستند که پیش فرض خاصی در مورد قالب آنها نداریم و آنها را به صورت مجموعه‌ای مرتب از جملات در نظر می‌گیریم.

در ابتدا بایستی همه­ی نویسه‌های (کاراکترهای) متن با جایگزینی با معادل استاندارد آن یکسان­سازی گردند. در پردازش رسم الخط زبان فارسی، با توجه به قرابتی که با رسم الخط عربی دارد، همواره در تعدادی از حرف­ها مشکل وجود دارد که از جمله آن­ها می­توان به حروف “ک”، “ی”، همزه و … اشاره نمود. در اولین گام باید مشکلات مربوط به این حروف را برطرف ساخت. علاوه بر این، اصلاح و یکسان سازی نویسه‌ی نیم‌فاصله و فاصله در کاربردهای مختلف آن و همچنین حذف نویسه­ی «ـ» که برای کشش نویسه­های چسبان مورد استفاده قرار می­گیرد و مواردی مشابه برای یکسان­سازی متون، از اقدامات لازم قبل از شروع فاز‌های مختلف می­باشد. در این فاز مطابق با یک سری قاعده دقیق و مشخص، فاصله­ها و نیم­فاصله­های موجود در متن برای علاماتی نظیر “ها” و “ی” غیرچسبان در انتهای لغات و همچنین پیشوندها و پسوندهای فعل­ساز نظیر “می”، “ام”، “ایم”، “اید” و موارد مشابه جهت استفاده در فازهای بعدی، اصلاح می­گردند. در ادامه به چند نمونه از این اصلاحات، اشاره شده است.

با استفاده از این ویژگی نرم‌افزار می‌توان همه­ی نویسه‌های (کاراکترهای) متن را استاندارد نمود. اگر نویسه‌ی غیر استانداردی یافت شد، با معادل استاندارد آن جایگزین می‌شود. برخی از این اصلاحات در ذیل آورده شده است:

  • اصلاح انواع حرف «ک» به معادل فارسی آنان.
  • اصلاح انواع حرف «ی» به معادل فارسی آنان.
  • بررسی همزه و انواع مختلف املاهای موجود و اصلاح هر کدام (به عنوان مثال تبدیل ؤ به و ، ئ به ی ، أ به ا ، إ به ا و…)
  • حذف شناسه‌ی همزه از انتهای واژه‌هایی مثل شهداء
  • حذف شناسه «آ» به «ا» مانند: آب به اب
  • اصلاح نویسه‌ی «طور» در واژه‌هایی مانند به طور، آن طور، این طور و …
  • بررسی وجود حرف «ی» در انتهای لغاتی مانند خانه‌ی ما و اصلاح آنان
  • حذف تشدید از واژه‌ها
  • تبدیل ارقام عربی و انگلیسی به معادل فارسی.
  • اصلاح نویسه‌ی نیم‌فاصله
  • اصلاح اعراب و حذف فتحه، کسره و ضمه و همچنین تنوین‌ها
  • حذف نیم‌فاصله‌های تکراری
  • حذف نویسه‌ی «ـ» که برای کشش نویسه­های چسبان مورد استفاده قرار می­گیرد. مانند تبدیل«بــــــــر» و «بـــر» به «بر»
  • چسباندن پسوندهای «تر»، «ترین» و … به آخر واژه‌ها
  • اصلاح فاصله‌گذاری «ها» در انتهای واژه‌ها و همچنین پسوندهای «های»، «هایی»، «هایم»، «هایت»، «هایش» و …
  • اصلاح فاصله‌گذاری «می»، «نمی»، «درمی»، «برمی»، «بی» در ابتدای واژه‌ها
  • تبدیل «‍ة» به «‍ه‌ی»
  • تبدیل «ب» متصل به ابتدای واژه‌ها به «به»
  • اصلاح فاصله‌گذاری پسوندها
  • حذف فاصله‌ها و نیم‌فاصله‌های اضافه بکار رفته در متن
  • تصحیح فاصله‌گذاری در مورد علائم سجاوندی بدین صورت که علائم سجاوندی به لغات قبل از خود می‌چسبند و با لغت بعد از خود فاصله خواهند داشت.

برای اعمال اصلاحات اولیه قبل از هر عملیاتی، بایستی متون مورد پردازش توسط ابزار Normalizer طراحی شده، مورد اصلاح قرار گیرند.

——————————————————————–

ریشه‌یابی معنایی در زبان فارسی

هدف از انجام  پروژه ریشه یابی معنایی در زبان فارسی، جداسازی کلمات از متن و بازگرداندن کلمات به ریشه اصلی تشکیل دهنده آنهاست. تفاوت اصلی این پروژه با سایر پژوهش‌های انجام شده در زمینه ریشه‌یابی، قابلیت بازگرداندن کلمات به ریشه بدون از بین رفتن معنای آنها در جمله می‌باشد. بدین منظور به نقش کلمات در جمله توجه ویژه‌ای شده است. در این طرح از مجموعه افعال گرداوری شده توسط گروه دادگان و لغات پرکاربرد پیکره همشهری استفاده شده است.

 ——————————————————————– 

برچسب گذار نقش کلمات فارسی

برچسب گذاری اجزای واژگانی کلام (Part of Speech tagging) عمل انتساب برچسب های واژگانی به کلمات و نشانه های تشکیل دهنده یک متن است؛ به صورتی که این برچسب ها نشان دهنده نقش کلمات و نشانه ها در جمله باشد. درصد بالایی از کلمات از نقطه نظر برچسب واژگانی دارای ابهام هستند، زیرا کلمات در جایگاههای مختلف برچسب های واژگنی متفاوتی دارند. بنابراین برچسب گذاری واژگانی عمل ابهام زدایی از برچسب ها با توجه به زمینه (متن) مورد نظر است. برچسب گذاری واژگانی عملی اساسی برای بسیاری از حوزه های دیگر پردازش زبان طبیعی(NLP) از قبیل ترجمه ماشینی، خطایاب و تبدیل متن به گفتار می باشد. تا کنون مدل ها و روش های زیادی برای برچسب گذاری در زبان های مختلف استفاده شده است. بعضی از این روش ها عبارتند از:

  •   مدل مخفی مارکوف (Markov Hidden Model)
  •   برچسب گذاری مبتنی بر تبدیل یا قانون (Transformation/Rule -based tagger)
  •   سیستم های مبتنی بر حافظه (Memory-basedSystem
  •   سیستم های ماکزیمم آنتروپی (Maximum Entropy System)

——————————————————————–

پارسر زبان فارسی

به موازات پیشرفت و تحولات نظری در زبان‌شناسی جدید، روش‌های تحلیل متون و دستورات زبان بوسیلهی رایانه نیز تحول یافته است. منظور از گرامر هر زبان، در دست داشتن یک سری دستورات زبانی قابل فهم برای رایانه است که به کمک آنها بتوان اجزای نحوی یک جمله را به طور صحیح تفکیک نمود. تجزیه و تحلیل جمله و شکستن آن به اجزای تشکیل دهنده مانند گروه های اسمی، فعلی، قیدی و غیره توسط ابزاری به نام پارسر صورت می گیرد که نقش اساسی در طراحی و یا افزایش دقت سایر ابزارهای پردازش متن دارد.

پارسر طراحی شده برای زبان فارسی در این پروژه، از ساختار لغات، موقعیت و ترتیب لغات در جمله، حروف یا عبارات قبل و بعد از آنها و نوع لغات، درخت نحوی یا پارسینگ را برای جملات متن تشکیل می دهد. در واقع عملیات پارسینگ با توجه به ریختشناسی (مطالعه ساختار و حالتهای مختلف یک کلمه) و همچنین دستورات نحوی گرامر زبان فارسی صورت میگیرد. بدیهی است هر چقدر نگارش بکار رفته در جملات و همچنین رعایت علائم سجاوندی طبق اصول و با دقت بیشتری صورت گرفته باشد، عملیات پارسینگ با کیفیت بهتری صورت خواهد گرفت و اجزای تشکیل دهنده ی جمله با عملیات کمتر و ساده تری برچسب زده خواهند شد.

 

یک فایل فشرده حاوی  فایل EXE (شامل ابزارهای پیش پردازش متون زبان فارسی : نرمالسازی – ریشه یابی – برچسب زنی نحوی – پارسر )

 

کد سی شارپ همراه با کتابخانه های مورد نیاز جهت ریشه یابی کلمات فارسی:

در این نمونه کد، که به زبان سی شارپ نوشته شده است، کتابخانه های لازم برای استفاده از کد ریشه یاب زبان فارسی که در آزمایشگاه فناوری وب دانشگاه فردوسی مشهد تولید شده است، به کد اضافه شده و چگونگی استفاده از این کتابخانه ها در کد مشخص است و در قالب ابزاری جهت دادن ورودی و مشاهده خروجی آماده شده است.

در کد موجود در فایل ضمیمه سه کتابخانه (فایل dll) اضافه شده اند که امکان شناسایی افعال و ریشه یابی کلمات را فراهم می آورند…

 

برای استفاده از نرم افزار در صورت اجرا نشدم برنامه در فایل EXE، ابتدا بسته نرم افزاری دات نت فریمورک ۴.۵ را نصب نمایید.

 


دانلود با لینک مستقیم

پاورپوینت-ppt- پردازش تصویر در 50 اسلاید-powerpoint

اختصاصی از کوشا فایل پاورپوینت-ppt- پردازش تصویر در 50 اسلاید-powerpoint دانلود با لینک مستقیم و پرسرعت .

پاورپوینت-ppt- پردازش تصویر در 50 اسلاید-powerpoint


پاورپوینت-ppt- پردازش تصویر در 50 اسلاید-powerpoint

 

مقدمه ای بر پردازش تصویر

 

  در هر سیستمی و با هر عملکردی برای تصمیم گیری به داده های ورودی احتیاج داریم. این ورودی ها میتوانند از یک سنسور صوتی, سنسور فاصله سنج , سنسور مادون قرمز , میکروفن و با تصاویر ارسالی از یه دوربین باشد.

 

  امروزه پردازش تصویر بهترین ابزار برای استخراج ویژگی ها و تحلیل موقعیت و در نهایت تصمیم گیری صحیح می باشد. در مورد انسان نیز به همین صورت است, اطلاعات از طریق چشم به مغز ارسال می شوند و مغز با پردازش این اطلاعات تصمیم نهایی را گرفته و فرمان را صادر می کند.

 

  هدف از پردازش تصویر پیاده سازی عملکرد ذهن انسان در قبال داده ها و انجام پردازش های خاصی برای استخراج ویژگی مورد نیاز برای رسیدن به هدف از پیش تعیین شده می باشد.

کوچکترین جزء PIXEL است . پیکسل مخفف Picture Element به معنی المان تصویر است. یک تصویر متشکل از تعداد زیادی پیکسل است که در کنار هم قرار گرفته اند . در واقع زمانی که با یک دوربین دیجیتال عکس می گیرید اگر رزولوشن دوربین شما 640480x باشد به این معنی است که ماتریس با ابعاد 640480x در اختیار شماست که 640 پیکسل در طول و 480 پیکسل در عرض دارد . به ازای هر پیکسل یک سلول نوری در دوربین وجود دارد. شدت نور این سلول نوری مقدار عددی را برای این پیکسل تعیین می کند. به طور مثال به ازای رنگ سیاه مقدار صفر در پیکسل ذخیره می شود و به ازای رنگ سفید مقدار 255 در آن ذخیره می شود.

 

 


دانلود با لینک مستقیم