پروژه آماده الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون

(1 بررسی مشتری)

قیمت اصلی 1.790.000 تومان بود.قیمت فعلی 1.090.000 تومان است.

دانلود پروژه آماده داده کاوی با پایتون ( پیاده سازی الگوریتم knn با پایتون ، یادگیری ماشین)

الگوریتم KNN (k نزدیکترین همسایه – K-nearest neighbors)

این محصول بصورت کامل و بدون قفل بوده و می توانید آن را شخصی سازی کرده و از آن جهت ارائه و پروژه دانشجویی بهره بگیرید.

 

زبان برنامه نویسیپایتون, python
محیط برنامه نویسیژوپیتر نوت بوک, Jupyter Notebook, ویژوال استدیو کد, vscode
نوع دیتاستcsv, اکسل
پسوند فایل های موجودپاورپوینت (pptx), اکسل (csv), ورد (dox), پی دی اف (pdf), پایتون ژوپیتر نوت بوک (ipynb), پاورپوینت تصویری (pptx)
صفحات فایل ورد WORD19 صفحه
صفحات فایل پاورپوینت25 صفحه
صفحات پی دی اف PDF19 صفحه
دانلود فایل، بمحض پرداخت
محصول آپدیت می باشد. نوشته تصاویر و تاریخ ممکن است مربوط به تصاویر نسخه قبلی باشند.
توضیحات

فهرست

دانلود پروژه آماده داده کاوی با پایتون ( پروژه آماده پیاده سازی الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون یادگیری ماشین با پایتون) – الگوریتم knn (k نزدیکترین همسایه – K-nearest neighbors).

این محصول بصورت کامل و بدون قفل بوده و می توانید آن را شخصی سازی کرده و از آن جهت ارائه و پروژه دانشجویی بهره بگیرید.

پروژه الگوریتم knn با پایتون دارای چه فایل هایی است؟

پس از تهیه محصول، در همان لحظه و بصورت اتوماتیک لینک دانلود یک فایل زیپ در اختیار شما قرار خواهد گرفت. پس از دانلود و استخراج فایل زیپ، تعدادی فایل با پسوندهای مختلف در اختیار خواهید داشت که توضیحات مختصری در مورد این فایل ها خدمت تان ارائه می کنیم.

  • فایل ورد – word که شامل تمامی توضیحات مربوط به ارائه درس و همچنین تصاویر و گزارشات مربوطه است.
  • فایل پی دی اف – pdf که تبدیل فایل ورد می باشد.
  • فایل پاورپوینت – PowerPoint که شامل عناوین کلیدی و تصاویر و کدهای پایتون می باشد.
  • پاورپوینت تصویری – PowerPoint که تبدیل پاورپوینت  به جهت جلوگیری از به هم خوردن قالب می باشد.
  • فایل پی دی اف – pdf که تبدیل فایل پاورپوینت می باشد.
  • فایل پایتون با ژوپیتر نوت بوک – Jupiter Note Book که شامل تمامی کدهای پروژه می باشد.

توضیحاتی در مورد فایل ورد-word

توجه : متون زیر خلاصه ای ناقص از فایل ورد word و صرفا جهت آشنایی با پروژه می باشد. 

فهرست مطالب

یادگیری ماشین.

یادگیری با نظارت.

یادگیری بدون نظارت.

الگوریتم k نزدیک ترین همسایه.

پیاده سازی الگوریتم knn با پایتون.

ایجاد یک مجموعه داده مصنوعی به وسیله متد های ماژول numpy.

رسم نمودار.

متد اول: distance.

متد دوم: calculate_all_distance.

متد سوم: knn.

متد چهارم(متد اصلی مشخص کردن لیبل داده جدید).

متد پنجم (متد اخر).

مرور کلی روی الگوریتم knn.

سپاس و قدردانی.

خلاصه ای ناقص از فایل ورد word جهت آشنایی با پروژه  

در ابتدا مقدمه ای از یادگیری ماشین و انواع یادگیری توضیح میدهم و در ادامه الگوریتم k نزدیک ترین همسایه را به همرا پیاده سازی با پایتون توضیح میدهم.

یادگیری ماشین

یادگیری ماشین یکی از زیر مجموعه های هوش مصنوعی است که در ان ماشین ها به کمک تجربیاتی که از یک سری دیتا ست اولیه که برنامه نویس به ان میدهد و پیش بینی هایی که بر اساس همین دیتا ست و تجربیات انجام میدهد یادگیری را به امام می رساند.

نحوه عملکرد ماشین به این شکل است که ماشین بر اساس همین مجموعه داده ها و تجربیات دسته بندی هایی را انجام میدهد و در ادامه میتواند که داده های جدیدی را که به ماشین داده می شود را در دسته بندی مناسبش قرار دهد.

دانلود پروژه آماده داده کاوی با پایتون ( پیاده سازی الگوریتم knn یادگیری ماشین با پایتون) – الگوریتم knn (k نزدیکترین همسایه – K-nearest neighbors).

یادگیری ماشین به سه دسته کلی تقسیم بندی می شود:

1 – یادگیری با نظارت (supervised)

2 – یادگیری بدون نظارت (unsupervised)

3 – یادگیری تقویتی

یادگیری با نظارت به دسته بندی های زیر تقسیم می شود:

1 – رگرسیون: که شامل الگوریتم های رگرسیون خطی و پولی نومیان است.

2 – درخت تصمیم

3 – جنگل تصادفی

4 – طبقه بندی: که شامل الگوریتم های knn و درختی و رگرسیون لجستیک است.هدف اصلی این الگوریتم ها برچسب زدن به ویژگی های دریافتی است.

یادگیری بدون نظارت به دسته بندی های زیر تقسیم می شود:

1 – خوشه بندی : که شامل الگوریتم های تجزیه ماتریس و تحلیل مولفه های اصلی و تکنیک کا مینز است.

2 – تحلیل آماری: که شامل الگوریتم های اپریوری و اف پی گروس است.

3 – مدل پنهان مارکف

قبل وارد شدن به بحث اصلی یه توضیح مختصر هم راجب دو دسته اول یادگیری یعنی با نظارت و بدون نظارت میگم.

یادگیری با نظارت

در یادگیری با نظارت مدل یا ماشین با گرفتن مجموعه از داده ها و پیدا کردن الگو بین ان ها یادگیری را انجام میدهد و از این به بعد قادر خواهد بود که داده های جدید رو در دسته بندی مختص خود قرار دهد . این نوع یادگیری را می شود به معلم و دانش اموز نسبت داد به این صورت که معلم اول یک سری اطلاعات به دانش اموز میدهد و از دانش اموز انتظار دارد که با توجه به اون اطلاعات امتحان ها را با موفقیت پشت سر بگذارد.

یادگیری بدون نظارت

اما یادگیری بدون نظارت اینگونه نیست و در این نوع یادگیری ما به ماشین دیتا سته نخواهیم داد و ماشین در این حالت تنها با توجه به مشاهدات پروسه یادگیری را انجام میدهد.تفاوت مهم این دو روش این است که در بدون نظارت ماشین بعد از این که یادگیری را انجام داد به دسته بندی ها برچسب نمیزنه به این معنی که میتواند پرتقال را در دسته مخصوص خود قرار بدهد ولی نمیدونه که این شی جدید از نوع یا لیبل پرتغال هست.

با یک مثال بیشتر توضیح میدم: فرض کنید که با یک سری داده شامل موز و انبه و پرتغال به ماشینمون میدهیم. ماشین با توجه به مشهدات و خوشه بندی داده ها ان ها را به سه گروه دسته بندی میکند. بعد از مرحله دسته بندی اگر یه داده جدید مثل سیب به ماشین بدهیم ماشین نمیتواند تشخیص دهد که این داده با سه دسته بندی قبلی متفاوت است و به این ترتیب نمیتواند برای ان یک دسته بندی جدید ایجاد کند و در نتیجه ان را در یکی از سه زیر دسته پرتغال یا موز یا انبه قرار می دهد.

دانلود پروژه آماده داده کاوی با پایتون ( پروژه آماده پیاده سازی الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون یادگیری ماشین با پایتون) – الگوریتم knn (k نزدیکترین همسایه – K-nearest neighbors).

الگوریتم k نزدیک ترین همسایه

حال که توضیحات مقدماتی به صورت کامل گفته شد به سراغ الگوریتم k نزدیک ترین همسایه میریم.

الگوریتم KNNبه صورت خلاصه میشه گفت: با پیدا کردن K تا از نزدیک ترین همسایه های داده جدید مشخص میکنه که داده جدید متعلق به کدام یکی از کلاس های موجود است.همانطور که قبل تر توضیح دادم این الگوریتم جزو دسته بندی تقسیم بندی از زیر شاخه یادگیری با نظارت است به همین دلیل نیاز دارد که یک مجموعه داده به ماشین داده شود تا بتواند به کمک ان ها داده جدید را دسته بندی کند.

از انجایی که در این الگوریتم ماشین ما چیز جدید یادنمیگرید و فقط بهد کمک یک سری داده مشخص میکند که داده جدید متعلق به کدام کلاس است این نوع الگوریتم از نوع لیزی یا تنبل است.

با توجه به شکل دو تا کلاس Aکه باستاره و کلاس Bکه با مثلث مشخص شده اند را داریم. یک داده جدید که با علامت سوال مشخص شده است را به ماشین میدهیم . حالا باید با دادن عدد K که نشان دهنده تعداد نزدیک ترین همسایه ها است و ماشین مشخص میکند که داده جدید متعلق به کدام کلاس است.

اگر K را برابر 3 در نظر بگیریم میبینیم که در نزدیکی داده جدید دو ستاره و یک مثلث قرار دارد ,با توجه به این اطلاعات ماشین به داده جدید لیبل ستاره میزند و ان را در کلاس A قرار می دهد اما اگر Kرا برابر 7 در نظر بگیریم شرایط تغییر میکند و تعداد ستاره ها برابر4 می شود و تعداد مثلث ها به 5 افزایش پیدا میکندد به این ترتیب داده جدید لیبل مثلث میخورد و جزو کلاس Bمی شود.

حال این سوال پیش می اید که اگر با تغییر دادن رقم K داده جدید به کلاس های متفاوتی تعلق پیدا میکند پس کدام جواب درست است؟

در جواب این سوال باید گفت که نوع کلاس داده جدید به موارد زیادی از جمله عدد ,Kوزن همسایه ها و فاصله همسایه ها از داده جدید و داده های نویز(داده هایی که خیلی از داده جدید فاصله دارند) و … بستگی دارد.ما در این الگوریتم از خیلی از موارد صرف نظر میکنیم و فقط بر دو عامل عدد Kو فاصله داده ها از داده جدید تمرکز میکنیم.

دانلود پروژه آماده داده کاوی با پایتون ( پروژه آماده پیاده سازی الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون یادگیری ماشین با پایتون) – الگوریتم knn (k نزدیکترین همسایه – K-nearest neighbors).

عدد K که توسط برنامه نویس باید به ماشین داده شود بهتر است که فرد باشد به این دلیل که اگر زود باشد ممکن است مقدار داده های کلاس های مختلف با هم برابر شوند و الگوریتم به نتیجه ای نرسد. و مورد دیگری که باید رعایت کنیم این است که بهتر است K را برابر 5 بگیریم تا نتیجه بهتری بگیریم.در این حالت داده هایی که خیلی از داده جدید دور هستند بی اثر می شوند.

مورد دیگر فاصله داده ها از داده جدید است. اصل کلی انتخاب نزدیک ترین داده ها فاصله ان ها از داده جدید است.برای بدستاوردن این فاصله روش های مختلفی از جمله روش منهتن و روش مینکوسکی و روش اقلیدسی است که ما از روش اقلیدسی استفاده میکنیم که اساس کارش به این شکل است که دو بردار ورودی را دریافت کرده و اختلاف ان ها را برمیگرداند.

حال که به طور کامل الگوریتم و طرز کارش را توضیح دادم برویم به سراغ پیاده سازی الگوریتم با پایتون.

پیاده سازی الگوریتم KNN با پایتون

برای پیاده سازی ماد نیاز به فراخوانی ماژول های : numpy,matplotlib, sckit learn داریم که در اینجا نحوه فراخوانی نشان داده شده است:

تمامی کد هایی که به صورت عکس در این فایل اورده شد رو من خودم درون ide pycharm نوشتم و از صفحه اسکرین گرفتم و در این فایل قرار دادم.

همانطور که قبلتر گفتم این الگوریتم جزو دسته یادگیری با نظارت است و برای پیاده سازی ان نیاز به یک مجموعه داده داریم. برای ایجاد این مجموعه داده دوروش وجود دارد:

1 – پاس دادن یک فایل اکسل شامل مجموعه داده ها

2 – ایجاد یک مجموعه داده مصنوعی به وسیله متد های ماژول numpy

ایجاد یک مجموعه داده مصنوعی به وسیله متد های ماژول numpy

من در پیاده سازی از روش دو استفاده کردم و یک مجموعه داده مصنوعی تولید کردم:

در این مرحله یک متد به اسمcreate_dataset تعریف میکنیم که 3 تا ورودی میگیره که شامل : مجموعه داده های مرکزی(cs), تعداد داده ها(nd), و میزان پراکندگی (S) است.

ابتدا در متد تعداد مراکز دسته هارو به کمک متد len درون متغیر nc میریزیم. در مرحله بعد ابعاد ارایه رو داخل متغیر n ذخیره میکنیم و در مرحله بعدی دو تا ارایه 3 بعدی خالی به ابعاد n*2 و n*1 به کمک متد zeros از کتابخانه Numpy تولید می کنیم.و در مرحله اخر به وسیله دوتا حلقه تودرتو اندیس های این دوارایه رو با مقادیر رندوم پر میکنیم.و دوتا ارایه رو برمی گردانیم.

بعد از اتمام تعریف ارایه حالا باید ورودی هایی که به ان دادیم را تعریف کنیم: که در این مثال ما 5 تا مرکز داده تعریف کردیم و مختصات اون هارو توی ارایه cs قرار دادیم و تعداد داده هارو برابر 140 و میزان پراکندگی را برابر 2 قرار دادیم.عدد پراکندگی هر چه که اندازش بزرگ تر بشه شدت پراکندگی هم کمتر میشه.

حال با فراخوانی این متد ما یک دسته داده حول مرکز یا همون داده جدید داریم که میتونیم الگوریتم Knn را روش اجرا کینم.

خروجی این تابع رو درون تو ارایه x,y ذخیره کردیم کهx نشان دهنده مختصات داده هاست و y شامل برچسب یا لیبل متناظر با داده هاست.

دانلود پروژه آماده داده کاوی با پایتون ( پروژه آماده پیاده سازی الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون یادگیری ماشین با پایتون) – الگوریتم knn (k نزدیکترین همسایه – K-nearest neighbors).

رسم نمودار

حالا که داده های مصنوعی رو تولید کردیم قبل از این که الگوریتم رو روش اجرا کنیم بهتره که نمودارش رو رسم کنیم:

برای رسم نمودار از متد های کتابخانه یا ماژول Matplotlib استفاده میکنیم. توضیح کد ها به این شکل است:

در خط اول به کمک متد style.use نوع استایل نمودار به وسیله کدی که در ورودی تابع نوشته شده است مشخص می شود.

در خط دوم و سوم به کمک متد scatter نقطه چین های نمودار را رسم میکنیم. به این تریتب مه به ازای هر داده یک نقطه توی نمودار کشیده میشه.به عنوان ورودی این متد دو ارایه هم اندازه دریافت میکنه که یکی برای محور افقی و دیگری برای محور عمودی است.

در خط چهارم با متد title تیتر نمودار تعریف می شود.در خط پنجم و ششم هم اسم یا تیتر محور افقی و عمودی مشخص می شود و در اخر هم به کمک متد show نمودار در خروجی نمایش داده می شود.

این هم خروجی قطعه کدی که توضیح دادم هست. همانطور که مشاهده میشه داده های مصنوعی که 140 تا هستند با توجه به میزان پراکندگی تعریف شده در اطراف 5 داده مرکزی قرار گرفتند. هر کدوم از این 5 دسته معرف یک کلاس است و در ادامه مشخص میشه که داده جدیدمون مطعلق به کدام یکی از این کلاس هاست.

در ادامه چندین متد پیاده سازی می شوند که هر کدام در دیگری call می شن و در اخر هم متد اصلی الگوریتم رو اجرا میکند:

متد اول: distance

همانطور که در مقدمه توضیح دادم ما برای پیدا کردن همسایه های نزدیک داده جدیدمون از مولفه ی اندازه استفاده میکنیم و همینطور گفته شد که نوع فاصله استفاده شده فاصله اقلیدسی است.در اولین متد طریقه بدست اوردن این فاصله رو پیاده سازی میکنیم.

این متد دو ورودی میگیره که هر دو بردار هستند و در خط اول اختلاف اون هارو در متغیر dij ذخیره میکنه و به کمک متد linalg.norm فاصله اقلیدسی این دو بردار رو بدست میاره و در متغیر d میریزه و d رو برمیگردونه.

دانلود پروژه آماده داده کاوی با پایتون ( پروژه آماده پیاده سازی الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون یادگیری ماشین با پایتون) – الگوریتم knn (k نزدیکترین همسایه – K-nearest neighbors).

متد دوم: calculate_all_distance

ما برای پیاده سازی الگوریتم به یک فاصله نیاز نداریم بلکه به فاصله ی داده جدید با تمام داده های مصنوعی نیاز داریم که این فواصل در این متد بدست میاد.

این متد دو ورودی داره: که یکی برداره(xi), و دیگری مجموعه داده هاست.در خط اول و دوم یک ارایه به طول مجموعه داده ها تعریف میکنیم تا فواصلی مه بدست میاریم رو درونش ذخیره کنیم.

در ادامه هم به کمک یک حلقه به اندازه تعداد داده های در هر مرحله یکی از داده هارو به کمک ایندکسش درون متغیر xj میریزیم و بعد به کمک متد distance که قبلتر تغریف کردیم فاصلش رو با بردار ورودی بدست میاریم و در ارایه ای که در اول متد تعریف کردیم ذخیره میکنیم و در اخر هم ارایه که شامل تمام فاصله ها است رو برمی گردانیم.

متد سوم: KNN

حالا در ادامه پیاده سازی الگوریتم باید K تا از نزدیک ترین همسایه ها رو براساس فاصله هایی که توی متد قبلی بدست اوردم در این متد پیدا کنیم:

این متد 3 تا ورودی میگیره : اولی (K) تعدادهمسایه هایی هست که می خوایم پیدا کنیم. ورودی های دوم و سوم هم مجموعه داده ها و بردار Xi هست که برای فراخوانی متد قبلی یعنی calculate _all_distance بهشون نیاز داریم.بعد از فراخوانی متد قبلی توی خط اول و پاس دادن خروجیش که شامل تمام فاصله هاست به ارایه d در خط بعدی به وسیله متد argsort فاصه هارو به صورت صعودی مرتب میکنیم و در خط سوم از اندیس 0تا اندیس k ام ارایه مرتب شده رو میریزیم درون متغیر ns و در اخر هم ns رو برمی گردانیم.

متد چهارم (متد اصلی مشخص کردن لیبل داده جدید):

این متد که مشخص میکنه داده جدید متعلق به کدام یکی از 5 دسته بندی است 4 تا ورودی میگیره که شامل: k,X,xi هست که در متد قبلی کامل توضیح دادم و در اینجا هم برای فراخوانی همون متد knn در این تابع است و ورودی چهارم که بالاتر بهش اشاره شد ارایه لیبل هاست.

ما در خط اول ارگومان k تا از نزدیک ترین همسایه هارو میریزیم درون ns و به کمک ارایه لیبل ها(Y) لیبل اون همسایه هارو در خط دوم مشخص می کنیم و در متغیر ns_label قرار می دهیم.

و در خط اخر هم اخرین متد رو که برای تعیین لیبل داده جدید هست فراخوانی میکنیم . متد get_class رو در ادامه به همراه کد توضیح می دهم. و در خط اخر متد classify لیبل داده جدید رو در قالب متغیر c برمی گردانیم.

متد پنجم (متد اخر):

متد get_class برای تعیین دسته یا کلاس داده جدید بر اساس برچسب نزدیک ترین همسایه ها استفاده می شود.

در واقع در تابع get_class با دریافت ارایه مربوط به برچسب نزدیک ترین همسایه هادر مورد داده جدید تصمیم گیری میشه. در ادامه کد این تابع رو بررسی میکنیم:

این متد تنها یک ورودی میگیره و اون هم ns_label هست.

در خط اول ns_label به وسیله متد copy داخل متغیر l ذخیره می شود.در خط دوم یک دیکشنری خالی برای ذخیره تعداد دفعات تکرار هر برچسب (در k همسایه) تعریف می کنیم.

در ادامه به کمک یه حلقه دیکشنری را تکمیل می کنیم.

در مرحله بعد پر تکرار ترین برچسب رو به کمک متد max از درون دیکشنری پیدا میکنیم ودر متغیر max n ذخیره میکنیم. حالا یک لیست خالی به اسم best_class تعریف میکنیم و تمام برچسل هایی که به تعداد max n تکرار شده اند رو به کمک یک حلقه for بهش اضافه میکنیم.

در اخر حلقه اگر لیست best_classes تنها شامل یک عضو باشد همان برچسب یا کلاس به عنوان لیبل داده جدید انتخاب می شود و برگردانده می شود اما اگر لیست شامل بیش از یک کلاس باشد به کمک حلقه while یک عضو از اخر L که لیبل همسایه هامون درونش ذخیره بود حذف میکنیم و تمام مراحل قبلی رو تکرار میکنیم تا جایی که بهترین کلاس مشخص شود .

و در اخر هم عنصر اول best classes رو درون متغیر best ذخیره و برمی گردانیم.

و در اخر همانطورکه گفته شد متغیر best که برگردوندیم رو در c میریزم و c که لیبل داده جدیدمون هسن رو برمی گردانیم و در این لحظه الگوریتم به پایان میرسد.

دانلود پروژه آماده داده کاوی با پایتون ( پروژه آماده پیاده سازی الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون یادگیری ماشین با پایتون) – الگوریتم knn (k نزدیکترین همسایه – K-nearest neighbors).

مرور کلی روی الگوریتم KNN

مرحله1: انتخاب تعداد k همسایه

مرحله 2: پیدا کردن تعداد k همسایه بر اساس فاصله اقلیدسی

مرحله3: شمردن هر تعداد هر دسته در این همسایه ها

مرحله 4: نسبت دادن داده جدید به دسته ای که بیشترین تکرار رو داشت.

سپاس و قدردانی

با سپاس از توجه شما

تشکر ویژه از استاد گرانقدرم جناب آقای دکتر ……….

سلامتی شما و همه ام آرزوست

نام دانشجو

Email : ………….@gmail.com

Academic Email : ………..@ ……..ir

در حد امکان سعی شده است اغلب پروژه های آموزشی آماده کامپیوتر دارای فایل راهنما و گزارش کار یا فایل صوتی یا تصویری راهنما باشند تا در درک روند کدنویسی و پیاده سازی پروژه به شما عزیزان کمکی کرده باشند.

تمامی پروژه ها جنبه آموزشی دارند و به منظور در دسترس قرار گرفتن ساده تر اطلاعات جمع آوری شده اند و کمک قابل توجهی به یادگیری و آموزش برنامه ها و نرم افزارهای برنامه نویسی می کنند.

توضیحات پسوندهای موجود در محصول با موضوع دانلود پروژه آماده داده کاوی با پایتون (پیاده سازی الگوریتم یادگیری ماشین با پایتون)

تصاویر دانلود پروژه آماده داده کاوی با پایتون ( پروژه آماده پیاده سازی الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون یادگیری ماشین با پایتون) – الگوریتم knn (k نزدیکترین همسایه – K-nearest neighbors).

 

نمونه تصویری از محیط کدنویسی ویژوال استدیو کد

 

دانلود پروژه آماده داده کاوی خوشه بندی با پایتون ( پیاده سازی الگوریتم خوشه بندی)

فایل ورد Word :

احتمالا لازم باشد که شما تغییراتی در این فایل انجام دهید، لذا جهت انجام تغییرات لازم ، می توانید این فایل را ویرایش کرده و بصورت پی دی اف یا پاورپوینت در بیاورید.

در واقع فایل ورد شامل توضیحات کامل پروژه و کدهای پایتون می باشد.

نمونه تصویر فایل ورد word:

دانلود پروژه آماده داده کاوی با پایتون - الگوریتم KNN (k نزدیکترین همسایه).

دانلود پروژه آماده داده کاوی با پایتون – الگوریتم KNN (k نزدیکترین همسایه).

نمونه تصویر فایل پاورپوینت PowerPoint :

 

دانلود پروژه آماده داده کاوی با پایتون ( پیاده سازی الگوریتم KNN یادگیری ماشین با پایتون) - الگوریتم KNN (k نزدیکترین همسایه - K-nearest neighbors).

دانلود پروژه آماده داده کاوی با پایتون ( پروژه آماده پیاده سازی الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون یادگیری ماشین با پایتون) – الگوریتم knn (k نزدیکترین همسایه – K-nearest neighbors).

توضیحات تکمیلی
پسوند فایل

زیپ

,

zip

پسوند فایل های موجود

پاورپوینت PowerPoint (pptx)

,

اکسل Excel (csv)

,

ورد Word (dox)

,

پی دی اف Pdf (pdf)

,

پایتون ژوپیتر نوت بوک Jupyter Notebooks (ipynb)

,

پاورپوینت تصویری PowerPoint Pics (pptx)

زبان برنامه نویسی

پایتون

,

python

محیط برنامه نویسی

ژوپیتر نوت بوک

,

Jupyter Notebook

,

ویژوال استدیو کد

,

vscode

ورژن پایتون تست شده

3.9.7

,

3.8.8

,

3.7.11

نوع دیتاست

csv

,

اکسل

تعداد صفحات فایل ورد Word

توضیحات برای 19 صفحه پاورپوینت

تعداد صفحات فایل پاورپوینت PowerPoint

25 صفحه

تعداد صفحات فایل پی دی اف Pdf

19 صفحه

1 دیدگاه برای پروژه آماده الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون

  1. کارمند سونار وب

    امتیاز شما به “پروژه آماده الگوریتم knn با پایتون * k نزدیکترین همسایه در پایتون”

دیدگاه خود را بنویسید