چارچوبی برای پروژه های جمع سپاری با استفاده از تکنیک های داده کاوی در داده های عظیم

جمع سپاری (Crowdsourcing) یکی از شاخه های بسیار نوین تحقیقاتی در حوزه مهندسی نرم افزار و محاسبات است. در این راهکار از توانایی های هوش انسانی (Human Intelligence) برای انجام محاسبات بسیار سنگین و پیچیده (غیرساخت یافته) که توسط روش های کاملا الگوریتمیک قابل انجام نیست، استفاده می شود. برای این منظور ابتدا یک مساله بسیار بزرگ و پیچیده (Complex-Task) طی چند مرحله به چندین زیرمسئله ساده و کوچک (Micro-Task) شکسته می شود. سپس این زیر مسئله ها با استفاده از یک پلتفرم ویژه در اختیار Crowd قرار می گیرد و بعد از انجام محاسبات مورد نیاز، پاسخ های ارائه شده یکپارچه سازی (Integrated) شده و بعد از حذف تاثیرات کاربران بدخواه (Malicious Users) نتایج نهایی در اختیار کاربران قرار می گیرد. در این پژوهش با استفاده از تکنیک های داده کاوی (خوشه بندی و کشف ناهنجاری) چارچوبی را برای پروژه های جمع سپاری معرفی می کنیم که برای تحلیل مسائل محاسبانی در حوزه داده های عظیم قابل استفاده خواهد بود. مسئله ای که با استفاده از روش های کاملا الگوریتمیک به هیچ وجه قابل انجام نبوده و پیچیدگی الگوریتم و محدودیت های زمان و حافظه مانع از عملکرد صحیح این روش ها خواهد شد. همچنین در این پژوهش سه قطعه کد با عناوین: Simulation-Input، Simulation-Initial و Simulation-Run (مجموعا در حدود 1800 سطر کد) توسعه داده شده است که امکان شبیه سازی چارچوب پیشنهادی را در یک محیط تحت وب با استفاده از زبان های برنامه نویسی PHP و HTML و همچنین پایگاه داده های MySQL فراهم می کند. الگوریتم های یاد شده در جهت حل سه مسئله اساسی در حوزه جمع سپاری به شرح ذیل توسعه یافته اند: (1) شناسایی کاربران بدخواه با استفاده از تحلیل پاسخ های ارائه شده در حین عملیات جمع سپاری، (2) کم کردن تاثیر عملکرد کاربران بدخواه با استفاده از یک روش مکانیزه و تعیین Measure، Metric و Indicator برای اعمال محدودیت های مورد نیاز در فرآیند جمع سپاری، (3) ارائه یک روش سیستماتیک برای یکپارچه سازی پاسخ های دریافت شده از کاربران با توجه به سوابق فعالیت های قبلی و استفاده از یک روش وزن دهی داینامیک برای رسیدن به نتایج بهینه. با شبیه سازی چارچوب پیشنهادی و تحلیل نتایج مشخص می شود که با استفاده از الگوریتم های مشخص شده هر سه هدف فوق در 4 یا حداکثر 5 بار تکرار الگوریتم های پیشنهادی بر روی مجموعه داده های فرضی، با هر ترکیبی از کاربران (با دقت، معمولی، کم دقت، بدخواه) و هر ترکیبی از فعالیت ها (آسان، متوسط، دشوار)، حاصل می شود. یعنی در 4 یا حداکثر 5 بار اجرای الگوریتم های پیشنهادی: (1) کاربران بدخواه با استفاده از مقادیر و شاخص های تعیین شده شناسایی می شوند، (2) تاثیر عملکرد کاربران بدخواه با استفاده از یک مکانیزم وزن دهی داینامیک بر روی نتایج نهایی محدود می شود، (3) و در نهایت با معرفی یک مکانیزم یکپارچه سازی پاسخ های دقیق در 4 یا حداکثر 5 تکرار، به سمت پاسخ صحیح نهایی همگرا می شود.

نظر بدهید

توجه: HTML ترجمه نمی شود!
    بد           خوب

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Aliquam iaculis egestas laoreet. Etiam faucibus massa sed risus lacinia in vulputate dolor imperdiet. Curabitur pharetra, purus a commodo dignissim, sapien nulla tempus nisi, et varius nulla urna at arcu.Lorem ipsum dolor sit amet, consectetur adipiscing elit. Aliquam iaculis egestas laoreet. Etiam faucibus massa sed risus lacinia in vulputate dolor imperdiet. Curabitur pharetra, purus a commodo dignissim, sapien nulla tempus nisi, et varius nulla urna at arcuLorem ipsum dolor sit amet, consectetur adipiscing elit. Aliquam iaculis egestas laoreet. Etiam faucibus massa sed risus lacinia in vulputate dolor imperdiet. Curabitur pharetra, purus a commodo dignissim, sapien nulla tempus nisi, et varius nulla urna at arcu. 

چارچوبی برای پروژه های جمع سپاری با استفاده از تکنیک های داده کاوی در داده های عظیم

  • تولید کننده: مارکت کد
  • شناسنامه: چارچوبی برای پروژه های جمع سپاری با استفاده از تکنیک های داده کا
  • موجودی: در انبار
  • برنامه نویس: میثم نظریانی
  • زبان برنامه نویسی: PHP/ HTML/ MySQL
  • 150,000تومان

برچسب ها: جمع سپاری/داده کاوی/داده های عظیم/الگوریتم/کاربران بدخواه/ یکپارچه سازی