6108
🗨 ارتباط با ما (تبلیغات، سوال، پیشنهاد و انتقاد): 📩 @Contact2Mebot 💯 کانال دوم ما: @Datascientists_Files 💎 در پیامرسان بله(آپدیت اتومات): https://ble.ir/dataplusscience 💡 در پیامرسان ایتا(آپدیت اتومات): https://eitaa.com/DataPlusScience
📘 آشنایی با پروتکل Model Context Protocol (MCP)
پروتکل MCP بهعنوان یک راهکار نوین و متنباز برای اتصال مدلهای زبانی (LLM) به ابزارها، فایلها، APIها و منابع داده معرفی شده است. MCP مانند پورت USB-C برای مدلهای زبانی عمل میکند و بستری انعطافپذیر، ماژولار و دوطرفه برای ساخت عاملهای هوشمند فراهم میسازد.
این سند به معرفی این پروتکل پرداخته و شامل موارد زیر است:
– معماری پایهی MCP و اجزای اصلی آن (Host، Client، Server، Context Provider)
– نحوه ارتباط بلادرنگ بین مدل و ابزارها
– مقایسه با روشهای سنتی مانند APIهای دستی و فریمورکهای Agent
– کاربردهای MCP در ساخت سیستمهای Agentic
– مسیر آینده این پروتکل و ابزارهای در حال توسعه
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📌 ابزارهای کلیدی مورد استفاده در نقشهای مختلف حوزه داده
این نمودار، مهمترین ابزارها در سه نقش اصلی حوزه داده را بهصورت مقایسهای نمایش میدهد:
🔹 تحلیلگر داده (Data Analyst): ابزارهایی مثل (Excel)، (Power BI)، (Tableau)، (Google Analytics)، (Alteryx)، (Looker) و (Google Data Studio) برای تحلیل و مصورسازی دادههای تجاری استفاده میشوند.
🔹 دانشمند داده (Data Scientist): تمرکز بر مدلسازی و یادگیری ماشین با ابزارهایی مانند (Python)، (R)، (Jupyter Notebook)، (Scikit-Learn)، (TensorFlow)، (PyTorch)، و (Keras) است.
🔹 مهندس داده (Data Engineer): ساخت و مدیریت زیرساخت داده با ابزارهایی مثل (Hadoop)، (Spark)، (Kafka)، (Airflow)، (Snowflake)، (Redshift)، (NiFi) و (Databricks) انجام میشود.
✅ همچنین برخی ابزارها مانند (SQL)، (Python)، (Power BI) و (Git) در هر سه حوزه مشترک هستند و یادگیری آنها برای ورود به هر یک از این مسیرها توصیه میشود.
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📘 راهنمای جامع یادگیری ماشین (Machine Learning Handbook)
این هندبوک با هدف تسهیل درک مفاهیم و آغاز بهکار در حوزه یادگیری ماشین (Machine Learning) تهیه شده است. در این مجموعه، از الگوریتمهای کلاسیک نظیر رگرسیون خطی (Linear Regression) و درخت تصمیم (Decision Tree) تا مدلهای پیشرفته مانند شبکههای عصبی (Neural Networks) و خوشهبندی (Clustering) بهصورت گامبهگام، همراه با شبهکد (Pseudocode)، تشریح شدهاند.
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
پس از انتشار آپدیت اخیر ChatGPT که امکان خلق تصاویر با الهام از استودیو Ghibli را فراهم کرد، کاربران به شکل بیسابقهای از این ویژگی استقبال کردند. سم آلتمن، مدیرعامل OpenAI، در توییتی از کاربران خواست تا استفاده از این قابلیت را کاهش دهند!
در پاسخ، یکی از کاربران بازتعریف طنزآمیز و خلاقانهای از مخففهای هوش مصنوعی پیشنهاد داده 😄:
GPU: Ghibli Processing Unit
GPT: Ghibli Production Tools
AGI: All Ghibli Images
➖➖➖➖➖➖➖➖➖➖➖➖
📊👨🏫 @DataPlusScience | @Data➕Science
💡 سندروم اهداف کهنه در سال نو
⭕️ همه ما این تجربه را داشته ایم؛ سال نو که نزدیک می شود، معمولا یکی از کارهایی که می کنیم، هدف گذاری برای سال بعد است. مثلاً اینکه در سال جدید می خواهم سالم تر غذا بخورم، وزنم را کم کنم یا بیشتر ورزش کنم. ارتباطم را با خدا یا خانواده عمیق تر و وزین تر کنم. شغل بهتری پیدا کنم. در امور عام المنفعه بیشتر نقش آفرینی کنم. انسان صادق تر و امین تری باشم. سیگار را کنار بگذارم. زبان انگلیسی ام را تقویت کنم. دو کتاب تدوین کنم و تصمیمات دیگری از این قبیل.
⭕️ اما این مساله جهانی و فراگیر است. تقریبا همه آدم ها چنین تجربیاتی داشته اند. تحقیقاتی در این زمینه انجام شده که نشان می دهد بطور متوسط تنها 8 درصد افراد به اهدافی که در ابتدای سال به آن فکر کرده بودند و در موردش تصمیم گرفته بودند می رسند! و نکته جالب تر اینکه تقریبا این تصمیمات و اهداف هر سال #ثابت هستند و تنها افراد در ابتدای هر سال جدید آن ها را به خود #یادآوری_مجدد می کنند! حتی آنقدر این مسئله فراگیر است که واژه ای هم برایش گفته می شود؛ سندورم سال جدید که شاید بهتر باشد بگوییم سندروم اهداف کهنه در سالِ جدید! تصمیمات بزرگ، اما #غیرعملی و فراموش شدنی تا ابتدای سال بعد که دوباره سر و کله شان پیدا می شود!
علت این سندروم چیست؟ مطالعاتی که در این زمینه انجام شده چهار اشتباه را ریشه این سندروم می داند: 🔺اول: #عدم_تمرکز یعنی تعریف تعداد زیادی موضوع برای تغییر در یک سال!
🔺دوم: #شروع_اشتباه یعنی آغاز از چیزهای که عادت های خیلی جدی ما هستند و به این راحتی ها نمی شود آن ها را تغییر داد!
🔺سوم: ماندن در هدف یعنی نداشتن برنامه عملیاتی زمان بندی شده برای اهداف سال جدیدمان! و
🔺 چهارم: ذهنیت کوتاه مدت که باعث می شود هر چه زودتر منتظر نتیجه باشیم چرا که مواردی که زمان بر باشد را اصلا دوست نداریم!
☑️⭕️تجویز راهبردی:
برای رهایی از این سندروم چه می توان کرد؟ به این پنج توصیه توجه جدی کنید!
1: نقطه تمرکز اصلی را مشخص کنید. ما هر سال در سفر زندگی مان به منزلگاه های مختلفی می رسیم و از آن ها عبور می کنیم. هر کدام از این منزلگاه ها ما را تبدیل به آدم جدیدی می کند. آن منزل گاهی که اگر به آن برسم تبدیل به آدم جدیدی می شوم چیست؟ روی این موضوع خوب فکر کنید. بعد از پاسخ دادن به این سوال می توانید یک نقطه کانونی برای سال جدید تعریف کنید. برای مثال یکی از نویسندگان اثرگذار فضای مجازی می گوید من در سال 2014 دنبال سلامتی بودم؛ سال 2015 استقلال مالی، سال 2016 دنبال کردن علایقم و سال 2017 رشد کسب و کارم. نقطه کانونی (منزلگاه) کمک مان می کند تا تمرکز ویژه ای روی یکی از ابعاد شخصی مان داشته باشیم.
2: نقاط پیرامونی را نیز تعریف کنید. شما قرار نیست در طول سال فقط یک کار انجام دهید بنابراین می توانید چندین هدف پیرامونی نیز تعریف کنید.
3: اهداف را در هم بکوبید و #خرد کنید. تا آنجا که می توانید اهداف بزرگ تر را کوچک کنید و سپس برایش زمان بگذارید. مثلا برای یادگیری زبان بگویید که تا آخر بهار این 4 کتاب را مطالعه می کنم. تا آخر تابستان 500 ساعت فایل صوتی گوش می کنم و ....
4: دو دشمن بزرگ را زیرنظر بگیرید و برایشان برنامه ويژه داشته باشید. اولی #فراموشکاری و دومی #ناامیدی. برای فراموش کاری می توانید از اپلیکیشن های مختلف برنامه ریزی استفاده کنید تا اهداف فراموش تان نشود و برای ناامیدی یک جمله به خودتان بگویید من بین این دو گزینه اولی را انتخاب می کنم: گزینه اول اینکه اهدافی را تعیین کنم و فقط به بخش کوچکی از آن برسم. گزینه دوم اینکه اصلا هدفی نداشته باشم. من شکست در رسیدن کامل به اهداف را به آرامش بی هدفی ترجیح می دهم.
5: به هیچ وجه برای اسفند برنامه ریزی نکنید. تمام زمان بندی تان تا بهمن ماه سال آینده باشد. آن ماه را بگذارید برای فرجه اطمینان که اگر هدفی به هر دلیلی کش آمد در آن ماه انجام شود. سال افراد هوشمند 11 ماه دارد.
خداوند در کتاب آسمانی ما را دعوت می کند به اینکه به نشانه مهربانی او بنگریم و ببینیم چگونه زمین، پس از مرگش دوباره زنده میشود و دریابیم که او براستی زنده کنندة مردگان است. خداوند گردش ایام را بهانه ای برای شروع مجدد قرار داده است. به قول یک اندیشمند معاصر، گرچه هر روز به ما اجازه می دهد که یک شروع تازه داشته باشیم، اما شروع سال جدید یک شروع روی همه شروع های هر روزمان است! سال تان سرشار از نشانه های خدا.
نوشته مشترک وحید شامخی و مجتبی لشکربلوکی
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📌 آشنایی با عاملهای هوش مصنوعی (AI Agents)
🔹 یک راهنمای جامع برای درک عاملهای هوش مصنوعی و نحوه عملکرد آنها
این داکیومنت توسط گوگل منتشر شده و به بررسی مفهوم عاملهای هوش مصنوعی (AI Agents) میپردازد. عاملها میتوانند از مدلهای زبانی استفاده کنند، دادهها را پردازش کنند، ابزارهای مختلف را به کار گیرند و تصمیمگیریهای هوشمندانهای انجام دهند.
📝 سرفصل مطالب:
✅ معرفی عاملهای هوش مصنوعی و تفاوت آنها با مدلهای زبانی (Language Models)
✅ بررسی معماری شناختی (Cognitive Architecture) عاملها
✅ استفاده از ابزارها (Tools) برای تعامل با دادههای واقعی
✅ پیادهسازی عاملهای هوش مصنوعی با LangChain و Vertex AI
✅ نمونهکدهای کاربردی برای استفاده از عاملها در محیطهای تولیدی
📌 این مستند برای توسعهدهندگان، پژوهشگران و علاقهمندان به هوش مصنوعی که میخواهند با عاملهای هوش مصنوعی کار کنند، بسیار مفید است.
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📊 سهم بازار فروشندگان پیشرو در هوش مصنوعی مولد (Generative AI) – مارس ۲۰۲۵
این تصویر گزارشی از IoT Analytics را درباره سهم بازار شرکتهای پیشرو در سه حوزه کلیدی هوش مصنوعی مولد ارائه میدهد:
🔹 واحدهای پردازشی دیتاسنتر (Datacenter GPUs) – NVIDIA با ۹۲٪ سهم بازار پیشتاز بلامنازع، در حالی که AMD (۴٪)، هواوی (۲٪)، اینتل (۱٪)، Cerebras (۱٪) و Groq (۱٪) در رتبههای بعدی قرار دارند.
🔹 مدلهای پایه و پلتفرمهای مدیریت مدل (Foundation Models & Model Management Platforms) – مایکروسافت (۳۹٪)، AWS (۱۹٪) و گوگل (۱۵٪) پیشگامان اصلی این بخش هستند، در حالی که OpenAI (۹٪)، Anthropic (۴٪)، IBM (۴٪)، بایدو (۳٪)، علیبابا (۳٪) و سایر رقبا ۱۱٪ باقیمانده را در اختیار دارند.
🔹 خدمات هوش مصنوعی مولد (GenAI Services) – بخش Other با ۷۶٪ بزرگترین سهم را دارد، اما شرکتهایی مانند Accenture (۷٪)، Deloitte (۷٪)، IBM (۳٪)، Capgemini (۲٪)، McKinsey (۲٪)، BCG (۲٪)، Cognizant (۲٪)، EY (۲٪)، Bain & Company (۲٪)، TCS (۱٪)، NTT Data (۱٪) و Infosys (۱٪) نیز در این بازار نقش دارند.
منبع
📊👨🏫 @DataPlusScience | @Data➕Science
📘 یادداشتهای آمار: راهنمای جامع مباحث آماری
💡 این فایل شامل مفاهیم پایه و پیشرفته آماری است که به صورت ساده و کاربردی توضیح داده شدهاند. مباحث شامل انواع دادهها، آزمونهای آماری و تکنیکهای تحلیل داده است که برای دانشجویان و محققین مفید است.
📊 مفاهیم پایه: شامل آمار توصیفی (Descriptive Statistics) و استنباطی (Inferential Statistics).
📌 اندازهگیری گرایش مرکزی: میانگین (Mean)، میانه (Median) و مد (Mode).
📏 اندازهگیری پراکندگی: واریانس (Variance) و انحراف معیار (Standard Deviation).
🗂 انواع دادهها و مقیاسها: دادههای اسمی (Nominal)، ترتیبی (Ordinal)، فاصلهای (Interval) و نسبتی (Ratio).
🧪 آزمونهای آماری: آزمون Z، آزمون T، آزمون خی دو (Chi-Square)، و تحلیل واریانس (ANOVA).
📈 توزیعهای احتمالی: توزیع نرمال (Normal Distribution)، دوجملهای (Binomial) و پواسون (Poisson).
🧮 قضیه حد مرکزی (Central Limit Theorem): تحلیل توزیع نمونهها با اندازههای بزرگ.
🔗 تحلیل دادههای پراکنده: کوواریانس (Covariance) و همبستگی (Correlation).
📊👨🏫 @DataPlusScience | @Data➕Science
میلادِ مسعودِ یگانه منجی عالم بشریت حضرت امام مهدی (عج) بر همه شیعیان مبارک باد🌹
@Data➕Science
رقابت در کاربردهای هوش مصنوعی: آمریکا، چین و اتحادیه اروپا در فناوریهای پیشرفته
📊 آمریکا همچنان در بسیاری از حوزههای هوش مصنوعی (AI) و فناوریهای پیشرفته (Cutting-Edge Technologies) پیشتاز است. در زمینههایی مانند رمزنگاری دیجیتال (Encryption Technologies)، رایانش کوانتومی (Quantum Computing) و بیوتکنولوژی (Biotech)، شرکتهای آمریکایی بیشترین سهم پتنتها را در اختیار دارند. این برتری به دلیل سرمایهگذاری عظیم شرکتهای فناوری و زیرساختهای تحقیقاتی پیشرفته است.
🚀 چین با سرعت بالایی در حال کاهش فاصله است و در حوزههایی مانند شهرهای هوشمند (Smart City)، رباتیک صنعتی (Industrial Robotics) و تشخیص چهره (Face Recognition) حتی از آمریکا پیشی گرفته است. سیاستهای حمایتی دولت چین و تمرکز بر کاربردهای تجاری AI باعث شده تا این کشور در برخی بخشها، به خصوص فینتک (Fintech) و خودرانها (Autonomous Driving)، سهم بالایی داشته باشد.
🌍 اتحادیه اروپا برخلاف آمریکا و چین، تمرکز بیشتری بر هوش مصنوعی اخلاقی و مقرراتگذاری دارد. در زمینههایی مانند پزشکی دقیق (Precision Medicine)، سالمندی و زوال عقل (Dementia & Cognitive Disorders) و انرژیهای پاک (Renewable Energy AI)، اروپا نقش مهمی ایفا میکند. با این حال، نبود شرکتهای فناوری غولپیکر و پراکندگی نوآوری در میان کشورهای عضو، باعث شده سهم اروپا در برخی حوزههای کلیدی پایینتر از آمریکا و چین باشد.
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📄 The Art of Data Science
💡 این داکیومنت به معرفی مفاهیم کلیدی و فرآیندهای علم داده پرداخته و توضیحاتی درباره نحوه کار با دادهها و تحلیل آنها ارائه میدهد.
🔑 محتویات:
تفاوت بین دادهکاوی و پروفایلینگ دادهها: کشف الگوها و ارزیابی کیفیت دادهها.
دستکاری دادهها (Data Wrangling): فرآیند تمیزکاری و ساختاردهی دادهها برای استفاده در تحلیلها.
مراحل پروژههای تحلیلی: از تعریف مسئله تا گزارشگیری نهایی.
چالشهای رایج تحلیلگران داده: مسائل مانند دادههای با کیفیت پایین و ترکیب دادهها.
ابزارهای تحلیلی: ابزارهایی مانند SQL، Python و Tableau برای تجزیه و تحلیل دادهها.
تحلیل اکتشافی دادهها (EDA): روشهای مختلف برای شناخت بهتر دادهها.
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📊 چرخه عمر علم داده (Data Science Lifecycle)
شناسایی مسئله (Problem Identification): تعریف مشکل کسبوکار یا نیاز که با دادهها قابل حل است.
درک کسبوکار (Business Understanding): ترجمه اهداف تجاری به سوالات تحلیلی.
جمعآوری داده (Data Acquisition ETL): استخراج، تبدیل و بارگذاری دادهها از منابع مختلف.
درک داده (Data Understanding - EDA): تحلیل دادهها برای شناسایی الگوها و حذف دادههای نامناسب.
مهندسی ویژگیها (Feature Engineering): تولید و انتخاب ویژگیهای مهم برای مدلسازی بهتر.
ساخت مدل (Model Creation - Training & Validation): آموزش و ارزیابی مدلهای یادگیری ماشین.
استقرار مدل (Model Deployment): استفاده از مدل در محیط واقعی برای پیشبینیها.
پایش مدل (Model Monitoring): نظارت بر عملکرد مدل و شناسایی مشکلات احتمالی.
تحلیل انحراف داده (Data Drift Analysis): بررسی تغییرات در توزیع دادههای ورودی.
تحلیل انحراف مدل (Model Drift Analysis): تحلیل کاهش عملکرد مدل به دلیل تغییرات محیطی.
داشبورد و گزارشدهی (Dashboard, Reports, and Scores): ارائه نتایج مدل در قالب گزارشها و داشبوردها.
@DataPlusScience
🌹🌷🌸 سالروز ولادت حضرت امیرالمومنین علی علیه السلام و روز پدر مبارک باد. 🌹🌷🌸
@Data➕Science
مختصری درباره مدل زبانی DeepSeek-V3 که اخیرا از آن رونمایی شده و سروصدای زیادی رو در اکوسیستم LLMها ایجاد کرده!
از صفحه آقای سید محمدعلی جعفری
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
💯منتشر شد
💎هم اکنون بصورت #رایگان در اختیار علاقه مندان قرار دارد.
▶️هندبوک تحلیل کسب و کار، صفر تا صد تحلیل کسب و کار به زبان ساده و فشرده، منتشر و هم اکنون بصورت رایگان در اختیار علاقه مندان قرار گرفته است.
این کتاب در 113 صفحه و در قالب فایل پی دی اف منتشر شده است.
🤩امیدواریم برای شما مفید باشد.
لطفا این کتاب را در اختیار سایر علاقهمندان نیز قرار دهید.
📱کانال تلگرام آکادمی تحلیل کسب وکار
/channel/baacademyir
📌 مدل متنباز DeepCoder؛ رقیبی جدی برای مدلهای کدنویسی OpenAI
دانشگاه UC Berkeley بهتازگی مدل کدنویسی ۱۴ میلیارد پارامتری DeepCoder را بهصورت متنباز منتشر کرده است. این مدل با بهرهگیری از یادگیری تقویتی (Reinforcement Learning) و آموزش روی ۲۴ هزار مسئلهی کدنویسی با تستهای قابلاعتبار، به دقت ۶۰.۶٪ در معیار LiveCodeBench دست یافته؛ رقمی برابر با عملکرد مدلهای o3-mini و o1 از OpenAI.
🔹 هزینه آموزش این مدل معادل اجرای ۳۲ کارت H100 بهمدت ۲.۵ هفته (حدود ۲۶,۸۸۰ دلار) بوده است.
🔹 تمام اجزای آن شامل مدل، کد منبع، دادهها، لاگهای آموزشی و ابزارهای بهینهسازی بهصورت متنباز در دسترس هستند.
🔹 قابلیت اجرای محلی (Local) این مدل، فرصتی ارزشمند برای پژوهشگران و توسعهدهندگان جهت بررسی و توسعه سیستمهای کدنویسی هوشمند فراهم میسازد.
📚 منبع:
DeepCoder: A Fully Open-Source 14B Coder at O3-mini Level (2025), Agentica x Together AI
https://huggingface.co/agentica-org/DeepCoder-14B-Preview
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
🔵 یادگیری ماشین با پایتون
اگر میخواهید از قدرت هوش مصنوعی در تحلیل داده و تحقیقات خود بهرهمند شوید، یادگیری ماشین مهمترین چیزی است که به آن نیاز دارید.
🎓 سعید مجیدی | متخصص یادگیری ماشین، پردازش زبانهای طبیعی و مدلهای زبانی بزرگ در گروه صنعتی انتخاب و شرکت پردازش و تحلیل داده دقیقه، دکترای علوم کامپیوتر با گرایش یادگیری ماشین و پردازش زبان از دانشگاه تافتس آمریکا (ویدئوی معرفی دوره)
🎓 حمیده حسینزاده | متخصص ریاضیات علوم داده و پردازش دادههای حجیم در شرکت سرچوایز، دکترای علوم ریاضی از دانشگاه الزهرا، محقق پسادکتری علوم داده در دانشگاه بهشتی و دارای سابقه فعالیت تحقیقاتی در دانشگاه واترلوی کانادا (ویدئوی معرفی دوره)
#دوره_آموزشی_آنلاین
📆 یکشنبهها ۱۸:۳۰ تا ۲۱:۳۰
🗓 از ۱۴ اردیبهشت ۱۴۰۴
⏺️ ۳۰ ساعت (۱۰ هفته)
🎞 با دسترسی به ویدئوی جلسات
🏅 گواهی پایان دوره (قابل استعلام)
⏳ برای استفاده از تخفیف بیشتر زودتر ثبتنام کنید:
🙂 کد تخفیف 30% برای پرداخت کامل: Lphf30
🙂 کد تخفیف 20% برای پرداخت قسطی: YpgH20
🔴 اعتبار کدهای تخفیف تا ۲۲ فروردین ۱۴۰۴
🔗 لینک ثبت نام:
d-learn.ir/mlpy?utm=vbl
تماس:
📱 t.me/dlearnsup
📞 02188349244
📲 09103209837
@dlearn_ir
کاربردهای ChatGPT برای برنامهنویسان پایتون
این فایل راهنمایی جامع برای توسعهدهندگان پایتون است که میخواهند از قابلیتهای ChatGPT در برنامههای خود بهرهبرداری کنند. با استفاده از این کتاب، شما میآموزید که چگونه از APIهای OpenAI و ChatGPT برای ایجاد برنامههای هوش مصنوعی استفاده کنید. مباحث از مفاهیم پایهای مانند مدلهای زبانی (Language Models) گرفته تا جزئیات فنی مانند توکنها (Tokens) و پارامترهای تنظیمات مدلها را شامل میشود.
🧑💻سر فصل موضوعات:
آشنایی با مدلهای ChatGPT و نحوه استفاده از آنها برای پردازش زبان طبیعی (NLP)
کاربردهای طراحی الگوهای نرمافزاری در پایتون
نحوه تنظیم کلید API و شروع به کار با OpenAI API در پایتون
ساخت و توسعه اپلیکیشنهای هوش مصنوعی با استفاده از مدلهای GPT و ابزارهای دیگر
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
شرکت دیپسیک نسخهی ارتقایافتهی مدل غیراستدلالی خود، DeepSeek V3-0324، را معرفی کرده است. بر اساس گزارش Artificial Analysis این مدل با بهبود چشمگیر در کیفیت پاسخها، در ارزیابیهای مستقل توانسته است از مدلهای برجستهای نظیر Claude 3.7 Sonnet و Grok-3 پیشی بگیرد و به یکی از برترین مدلهای غیراستدلالی (non-reasoning models) در حوزهی هوش مصنوعی تبدیل شود!
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📢 دوره جدید و رایگان AI Agent: Event-Driven Agentic Document Workflows
پردازش اسناد پیچیده، امری زمانبر و مستعد خطا است. جریانهای کاری مبتنی بر عامل (Agentic Workflows) با بهرهگیری از هوش مصنوعی (AI Agents) و معماری رویدادمحور (Event-Driven Architecture)، امکان خودکارسازی این فرآیندها را فراهم میکند. این دوره، اصول طراحی و پیادهسازی سامانهای هوشمند را آموزش میدهد که قادر است اطلاعات را از اسناد استخراج کرده، فرمها را تکمیل کند و با بازخورد انسانی بهبود یابد.
📖 سرفصل آموزش:
✅ اصول جریانهای کاری عاملمحور و نحوه استفاده از RAG (Retrieval-Augmented Generation) در بازیابی دادهها
✅ طراحی ساختارهای پیشرفته شامل شاخهبندی (Branching)، تکرار (Looping) و اجرای همزمان (Concurrent Execution)
✅ هوشمندسازی پردازش اسناد از طریق تحلیل و تکمیل خودکار فرمهای PDF
✅ افزودن تعامل انسانی (Human-in-the-loop) برای بررسی و اصلاح پاسخها
✅ پشتیبانی از ورودیهای متنی و صوتی برای بهبود تعامل با عامل هوشمند
ثبتنام رایگان 🆓
📊👨🏫 @DataPlusScience | @Data➕Science
📘 عاملهای هوش مصنوعی (AI Agents) – دیکشنری جامع از A تا Z 🤖
این فایل شامل دیکشنری تخصصی عاملهای هوش مصنوعی (AI Agents) از A تا Z است که مفاهیم، مدلها و کاربردهای کلیدی مرتبط با این حوزه را بهصورت جامع و دقیق ارائه میدهد.
🔍 برخی از مفاهیم کلیدی این دیکشنری عبارتند از:
✅ عامل خودمختار (Autonomous Agent) – سیستمهای هوش مصنوعی که بدون دخالت انسانی تصمیمگیری و عمل میکنند.
✅ مدل باور-میل-قصد (Belief-Desire-Intention Model - BDI) – چارچوب تصمیمگیری بر اساس اطلاعات و اهداف عامل.
✅ عامل مکالمهای (Conversational Agent) – چتباتها و دستیارهای صوتی که با کاربران تعامل دارند.
✅ یادگیری تقویتی (Reinforcement Learning - RL) – روش آموزش عاملهای هوشمند بر اساس پاداش و جریمه.
✅ هوش گروهی (Swarm Intelligence) – الگوبرداری از رفتار جمعی در طبیعت برای بهینهسازی سیستمهای AI.
✅ یادگیری فدرال (Federated Learning) – روشی برای آموزش مدلهای هوش مصنوعی بدون نیاز به انتقال دادههای خام.
📊👨🏫 @DataPlusScience | @Data➕Science
📌 راهنمای جامع اصطلاحات مدلهای زبانی از A تا Z
📖 این دیکشنری تخصصی شامل تعاریف دقیق و کاربردی مهمترین اصطلاحات مرتبط با مدلهای زبانی بزرگ (LLM) است. از Augmentation تا Zero-shot Learning، تمامی مفاهیم کلیدی مورد نیاز پژوهشگران، توسعهدهندگان و علاقهمندان به هوش مصنوعی و یادگیری ماشین در این مجموعه گردآوری شده است.
منبع
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
🚀 تکامل هوش مصنوعی: از آغاز تا آینده!
این تصویر مسیر رشد هوش مصنوعی (AI) را از گذشته تا آینده نشان میدهد.
🔍 مهمترین نقاط عطف:
✅ ۱۹۵۰: آزمون تورینگ برای سنجش هوشمندی ماشینها
✅ ۱۹۹۷: پیروزی Deep Blue بر قهرمان شطرنج جهان
✅ ۲۰۱۲: انقلاب یادگیری عمیق (Deep Learning) با AlexNet
✅ ۲۰۱۶: شکست قهرمان Go توسط AlphaGo
✅ ۲۰۲۲: رشد انفجاری کاربران ChatGPT در کمتر از دو ماه
✅ ۲۰۲۴: تصویب قانون هوش مصنوعی اتحادیه اروپا (EU AI Act)
✅ ۲۰۲۵: رقابت Deepseek چین با OpenAI
✅ +۲۰۲۵: پیشبینی ظهور هوش عمومی مصنوعی (AGI) و آیندهای نامشخص
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📄 Top 30 Frequently Asked Data Analyst Interview Questions
💡 این داکیومنت شامل 30 سوال متداول برای مصاحبههای شغلی در حوزه تحلیل داده است که توسط شرکتهای بزرگ مانند MAANG (Meta, Amazon, Apple, Netflix, Google) مطرح میشود. این سوالات به شما کمک میکند تا برای مصاحبههای شغلی در این حوزه آمادگی پیدا کنید.
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📢 منابع برتر دیتاست برای متخصصان داده
🏆جامعه دادهکاوی (Kaggle)
بزرگترین پلتفرم جهانی با ۲۷۳ هزار دیتاست رایگان در حوزههای سلامت، مالی و یادگیری ماشین.
▪️ ویژگیها: مسابقات هوش مصنوعی، ابزارهای تحلیل یکپارچه
🔗 kaggle.com/datasets
🔍 موتور جستجوی داده (Google Dataset Search)
ابزار قدرتمند گوگل برای کشف ۲۵ میلیون دیتاست آکادمیک، دولتی و سازمانی.
▪️ فرمتها: CSV، JSON، PDF
🔗 toolbox.google.com/datasetsearch
📚 مخزن دانشگاهی (UCI ML Repository)
منبع کلاسیک دانشگاهی با ۶۵۰+ دیتاست برای توسعه مدلهای ML.
▪️ نمونهها: Iris، Adult، Wine
🔗 archive.ics.uci.edu
🌍 آمار جهانی (World Bank Data)
دادههای توسعۀ ۲۰۰+ کشور در حوزه اقتصاد، جمعیت و سلامت.
▪️ ابزار: نمودارهای تعاملی و پیشبینی روندها
🔗 data.worldbank.org
📊 دادههای تحلیلی (FiveThirtyEight)
منبع روزنامهنگاری دادهمحور با تمرکز بر ورزش، سیاست و اقتصاد.
▪️ نمونه: آمار NBA و انتخابات آمریکا
🔗 data.fivethirtyeight.com
☁️ مجموعه دیتاست AWS Open Data
پلتفرم کلانداده برای پروژههای یادگیری عمیق و تصاویر ماهوارهای.
▪️ دسترسی رایگان: دادههای انرژی و محیطزیست
🔗 registry.opendata.aws
🧪 دادههای پژوهشی (Academic Torrents)
منبع دیتاستهای حجیم تا ۲ ترابایت برای تحقیقات دانشگاهی.
▪️ نمونه: دادههای پزشکی MIMIC-III
🔗 academictorrents.com
🏥 دادههای سلامت جهانی (WHO GHO)
آمار سازمان بهداشت جهانی از شیوع بیماریها تا واکسیناسیون.
▪️ کاربرد: تحلیل اپیدمیها و سیاستگذاری
🔗 who.int/data/gho
🤖 کتابخانه Hugging Face
پلتفرم تخصصی پردازش زبان با دیتاستهای متن، صدا و تصویر.
▪️ نمونه: ترجمه ماشینی و تشخیص احساسات
🔗 huggingface.co/datasets
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📘 صد سوال برتر برای مصاحبه شغلی دانشمند داده
💡 این داکیومنت مجموعهای از سوالات متداول و پاسخهای جامع در حوزه علم داده است که برای آمادهسازی مصاحبههای شغلی طراحی شده است. این سوالات بخشهای مختلفی از مهارتهای علمی و عملی را پوشش میدهند، از جمله آمار، یادگیری ماشین، تحلیل دادهها و پردازش زبان طبیعی.
🔑 دستهبندی اصلی:
📊 تحلیل آماری: شامل مفاهیم مانند آزمون فرضیه، خطاهای نوع اول و دوم، توزیعهای احتمالی و قضیه حد مرکزی.
🎲 احتمالات و نظریه اطلاعات: سوالاتی درباره احتمال شرطی، زنجیره مارکوف، قانون مجموع احتمال و آنتروپی.
🤖 یادگیری نظارتشده: مفاهیمی چون رگرسیون، درخت تصمیم، گرادیان کاهشی و معیارهای ارزیابی مدل.
📈 یادگیری بدون نظارت: تکنیکهایی مانند خوشهبندی K-means، DBSCAN، تحلیل مولفههای اصلی (PCA) و کاهش ابعاد.
🧠 پردازش زبان طبیعی (NLP): شامل توکنسازی، مدلسازی زبان، BERT، تحلیل احساسات و مدلهای توجه (Attention).
🖼 پردازش تصویر: سوالاتی درباره شبکههای عصبی پیچشی (CNN)، انتقال سبک، تشخیص اشیا و GANها.
➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
.
🔹 ترم جدید حضوری/آنلاین
مسیر شغلی «مهندس هوش مصنوعی» 6 بهمن شروع می شود.
✅ یکساله مهندس AI شوید و آینده شغلی خودتان را تضمین کنید.
🔸 440 ساعت . 110 جلسه . 55 هفته . 20 پروژه . 8 کورس . 3 هیات علمی
♦️ مهارتهای نرمافزاری . ریاضیات AI . یادگیری ماشین پیشرفته . یادگیری عمیق پیشرفته . MLOps . SDLC . پردازش ابری AWS/GCP . مدلهای مولد و زبانی LLM/VLM
روش های پرداخت شهریه:
🔹 نقدی ۲۰% تخفیف
🔹 شرایط اقساطی
🔹 دانشجویی بلند مدت
🔹 سازمانی بدون پیش پرداخت
🔹 شهریه معوقه
مشاوره کامل قبل ثبت نام:
♦️ دایرکت: @daycheapply
♦️ پیامک: ارسال کد ۱ به ۰۹۳۰۰۲۱۴۴۴۱
♦️ اطلاعات بیشتر: dayche.com/ig
💲 5% کدتخفیف مخصوص این کانال: HY38PG66
t.me/daychecatalog
t.me/daycheapply
📚 ساخت اولین سیستم RAG (Retrieval-Augmented Generation)
💡 این فایل آموزشی شامل مراحل ساخت یک سیستم RAG ساده برای پاسخگویی به سوالات بر اساس اسناد است. مفاهیم کلیدی مانند استخراج متن (Text Extraction)، تقسیمبندی متن (Text Chunking) و جستجوی برداری (Vector Search) را توضیح میدهد.
📄 محتوای فایل:
استخراج متن از PDF با استفاده از PyMuPDF
تقسیمبندی متن به قطعات کوچکتر (Chunking)
روشهای بازیابی اطلاعات: جستجوی کلیدواژهای (Keyword-based) و جستجوی برداری (Vector-based)
الگوریتم Okapi BM25 برای رتبهبندی اسناد
استفاده از Embeddings برای محاسبه شباهت معنایی
ساخت یک سیستم RAG ساده با استفاده از OpenAI API
🔬 این فایل همچنین محدودیتهای سیستم RAG پایه را نشان میدهد و زمینه را برای بحث در مورد تکنیکهای پیشرفتهتر در فصلهای بعدی فراهم میکند.
📢 #RAG #NLP #MachineLearning #VectorSearch #TextExtraction #پردازش_زبان_طبیعی #یادگیری_ماشین #هوش_مصنوعی
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science
📊 کتاب Understanding ETL: Data Pipelines for Modern Data Architectures
💡 این کتاب نکه توسط Databricks منتشر شده به معرفی مفاهیم، روشها و بهترین شیوههای ETL (استخراج، تبدیل، بارگذاری) در معماریهای داده مدرن پرداخته است. این کتاب برای مهندسان داده، تحلیلگران و محققین طراحی شده و نحوه ساخت و بهینهسازی پایگاههای داده و پایپلاینهای داده را توضیح میدهد.
سر فصل مطالب کتاب:
📤 دریافت دادهها (Data Ingestion): اصول و روشهای دریافت داده از منابع مختلف.
🔄 تبدیل دادهها (Data Transformation): پردازش و تغییر دادهها برای تحلیلهای دقیقتر.
⚙️ هماهنگسازی دادهها (Data Orchestration): هماهنگسازی و مدیریت گردش کار دادهها.
🛠 مسائل و رفع اشکال پایگاههای داده (Pipeline Issues and Troubleshooting): شناسایی و حل مشکلات پایپلاینها.
🚀 کارایی و مقیاسپذیری (Efficiency and Scalability): بهینهسازی کارایی و مقیاسپذیری سیستمهای ETL
➖➖➖➖➖➖➖➖➖➖➖➖
برای آموزش علم داده به جمع ما بپیوندید: 👇
📊👨🏫 @DataPlusScience | @Data➕Science