0
هیچ موضوعی وجود ندارد!
قیمت - slider
210000 تومان1010000 تومان
سطح آموزش
نوع آموزش
نوع مدرک
محل آموزش
+ موارد بیشتر
زمان آموزش
درباره دوره: آپاچی کافکا یک پلتفرم توزیع‌شده برای استریم داده‌ها است که به سرعت به یکی از محبوب‌ترین فناوری‌های کلان داده تبدیل شده است. کافکا به سازمان‌ها کمک می‌کند تا داده‌ها را از منابع مختلف جمع‌آوری کنند، آنها را پردازش کنند و به سرعت به آنها دسترسی داشته باشند. این دوره آموزشی به شما کمک می‌کند تا مفاهیم و کاربردهای کافکا را به‌طور کامل بیاموزید. معرفی کافکا: 1 - آپاچی کافکا در 5 دقیقه 2 - اهداف دوره 3 - درباره مدرس تئوری کافکا: 1 - تاپیک‌ها، پارتیشن‌ها و آفست‌ها 2 - Producers و کلیدهای پیام 3 - Consumers و سریال‌زدایی 4 - گروه‌ها و آفست‌های Consumers 5 - بروکرها و تاپیک‌ها 6 - Topic Replication 7 - تایید Producer و ماندگاری تاپیک 8 - Zookeeper 9 - پروتکل‌های KRaft در کافکا - حذف Zookeeper 10 - خلاصه تئوری راه‌اندازی کافکا: 1 - شروع کافکا و ترتیب سخنرانی‌ها 2 - راه‌اندازی کافکا با Conduktor - مالتی پلتفرم 3 - Mac OS X - دانلود و راه‌اندازی کافکا در Path 4 - Mac OS X - راه‌اندازی Zookeeper و کافکا 5 - Mac OS X - استفاده از brew 6 - لینوکس - دانلود کافکا و راه‌اندازی Path 7 - لینوکس - راه‌اندازی Zookeeper و کافکا 8 - Windows WSL2 - دانلود کافکا و راه‌اندازی Path 9 - Windows WSL2 - راه‌اندازی Zookeeper و کافکا 10 - Windows WSL2 - برطرف کردن مشکلات 11 - Windows non-WSL2 - راه‌اندازی Zookeeper و کافکا راه‌اندازی کافکا بدون Zookeeper: 1 - Mac OS X - راه‌اندازی کافکا در KRaft mode 2 - لینوکس - راه‌اندازی کافکا در KRaft mode 3 - Windows WSL2 - راه‌اندازی کافکا KRaft mode راهنمای CLI (رابط خط فرمان): 1 - معرفی CLI 2 - تاپیک‌های کافکا CLI 3 - Kafka Console Producer CLI 4 - Kfaka Console Consumer CLI 5 - Kafka Consumer در گروه 6 - Kafka Consumer Groups CLI 7 - ریست کردن آفست‌ها رابط کاربری کافکا: 1 - Conduktor - دمو راهنمای برنامه‌نویسی جاوا در کافکا: 1 - لیست کافکا در SDK 2 - ایجاد پروژه کافکا 3 - Producer جاوا 4 - Java Producer Callbacks 5 - Producer جاوا با کلیدها 6 - Consumer جاوا 7 - Consumer جاوا - خاموش شدن مطبوع 8 - Consumer جاوا در گروه Consumer 9 - Cooperative Rebalance افزایشی Consumer جاوا و عضویت گروه Static 10 - Java Consumer Incremental Cooperative Rebalance - تمرین 11 - رفتار کامیت آفست خودکار Consumer جاوا 12 - برنامه‌نویسی - آموزش‌های پیشرفته پروژه‌های واقعی کافکا: 1 - بررسی پروژه‌های واقعی کافکا Producer کافکا ویکی مدیا و پیکربندی پیشرفته Producer: 1 - راه‌اندازی پروژه Producer ویکی مدیا 2 - پیاده‌سازی پروژه Producer ویکی مدیا 3 - اجرای Producer ویکی مدیا 4 - Producer ویکی مدیا - معرفی پیکربندی Producer 5 - بررسی عمیق تاییدات Producer 6 - تلاش‌های Producer 7 - تنظیمات ایمن Produce کافکا 8 - Producer ویکی مدیا - پیاده‌سازی ایمن Producer 9 - فشرده‌سازی پیام کافکا 10 - تنظیمات linger.ms و batch.size در Producer 11 - Producer ویکی مدیا - پیاده‌سازی توان عملیاتی بالا 12 - پارتیشنر پیشفرض Producer و پارتیشنر Sticky 13 - پیشرفته - max.block.ms و buffer.memory OpenSearch Consumer و پیکربندی‌های پیشرفته Consumer: 1 - OpenSearch Consumer - بررسی پروژه 2 - OpenSearch Consumer - راه‌اندازی پروژه 3 - راه‌اندازی OpenSearch در داکر 4 - راه‌اندازی OpenSearch در کلود 5 - راهنمای OpenSearch 6 - پیاده‌سازی OpenSearch Consumer - بخش اول 7 - پیاده‌سازی OpenSearch Consumer - بخش دوم 8 - سمنتیک‌های تحویل Consumer 9 - پیاده‌سازی OpenSearch Consumer (Idempotence)- بخش سوم 10 - استراتژی‌های کامیت آفست‌های Consumer 11 - پیاده‌سازی OpenSearch Consumer (سمنتیک‌های تحویل)- بخش چهارم 12 - پیاده‌سازی OpenSearch Consumer (دسته‌بندی داده)- بخش پنجم 13 - رفتار ریست آفست Consumer 14 - پیاده‌سازی OpenSearch Consumer (نمایش مجدد داده)- بخش ششم 15 - Consumer Internal Threads 16 - واکشی Consumer Replica - معرفی Rack Awareness APIهای توسعه‌یافته کافکا برای توسعه‌دهندگان: 1 - APIهای توسعه یافته کافکا - بررسی 2 - معرفی Kafka Connect 3 - بخش عملی Kafka Connect Wikimedia و ElasticSearch 4 - معرفی Kafka Streams 5 - بخش عملی Kafka Streams 6 - معرفی Kafka Schema Registry 7 - بخش عملی Kafka Schema Registry 8 - از چه Kafka APIای باید استفاد کنم؟ بینش‌های دنیای واقعی و مطالعات موردی (Big Data و Fast Data): 1 - انتخاب تعداد پارتیشن و فاکتور Replication 2 - کنوانسیون نام‌گذاری تاپیک‌های کافکا 3 - مطالعه موردی - MovieFlix 4 - مطالعه موردی - GetTaxi 5 - مطالعه موردی - MySocialMedia 6 - مطالعه موردی - MyBank 7 - مطالعه موردی - هضم کلان داده‌ها 8 - مطالعه موردی - لاگ کردن و تجمیع متریک‌ها کافکا در سازمان برای مدیران: 1 - بررسی معماری سطح بالا برای راه‌اندازی کلاستر کافکا 2 - نظارت و عملیات کافکا 3 - امنیت کافکا 4 - مالتی کلاستر و MirrorMaker کافکا 5 - Listenerهای تبلیغاتی: کافکا کلاینت و پروتکل ارتباطی سرور پیکربندی‌های پیشرفته تاپیک‌ها: 1 - تغییر پیکربندی تاپیک 2 - سگمنت‌ها و ایندکس‌ها 3 - سیاست‌های پاکسازی لاگ 4 - حذف پاکسازی لاگ 5 - تئوری تراکم لاگ 6 - تمرین تراکم لاگ 7 - Unclean Leader Election 8 - پیام‌های بزرگ در کافکا گام‌های بعدی: 1 - موضوع بعدی 2 - تشکر
درباره دوره: *لازم به ذکر است که زیرنویس این دوره توسط هوش مصنوعی صورت گرفته است.*متخصصان حوزه‌ی داده، برای کمک به کسب‌وکارها در تصمیم‌گیری‌های بهتر، داده‌ها را تحلیل می‌کنند. آن‌ها برای انجام این کار از تکنیک‌های قدرتمندی مانند داستان‌سرایی با داده، آمار و یادگیری ماشین استفاده می‌کنند. در این دوره، شما با کاوش در نقش متخصصان داده در محیط کاری، سفر یادگیری خود را آغاز خواهید کرد. همچنین با فرآیند کاری پروژه‌محور PACE (برنامه‌ریزی، تحلیل، ساخت، اجرا) و چگونگی سازماندهی پروژه‌های داده با استفاده از آن آشنا می‌شوید. کارمندان گوگل که هم‌اکنون در این حوزه فعالیت می‌کنند، با ارائه‌ی فعالیت‌های عملی شبیه‌سازی‌شده‌ی وظایف مرتبط، به اشتراک گذاشتن نمونه‌هایی از کار روزانه‌ی خود و کمک به تقویت مهارت‌های تحلیل داده‌ی شما برای آمادگی شغلی، شما را در این دوره راهنمایی می‌کنند. مقدمه‌ای بر مفاهیم علم داده: 1 - خوش‌آمدگویی 2 - کشف جعبه ابزار داده‌ 3 - جمع‌بندی 4 - Lois-An:با کنجکاوی در حرفه‌ی داده خود پیش بروید 5 - ارزیابی تاثیر داده در عصر حاضر: 1 - خوش‌آمدگویی 2 - Adrian: ایجاد راه‌حل‌های تجاری مبتنی بر داده 3 - مشاغل مبتنی بر داده، موتور محرک کسب‌وکارهای مدرن 4 - بهره‌گیری از تحلیل داده در سازمان‌های غیرانتفاعی 5 - مهارت‌های کلیدی مورد نیاز برای یک حرفه‌ی مبتنی بر داده 6 - ملاحظات اخلاقی مهم برای متخصصان داده 7 - فضای شغلی برای متخصصان داده 8 - جمع‌بندی حرفه شما به عنوان یک متخصص داده: 1 - خوش‌آمدگویی 2 - Cassie: عشق مادام العمر به داده 3 - آینده مشاغل داده 4 - Tiffany: نصیحت برای جویندگان کار 5 - ایجاد یک حضور حرفه‌ای آنلاین 6 - تقویت روابط حرفه‌ای 7 - آماده شدن برای جستجوی کار 8 - Daisy: برجسته کردن مهارت‌های فنی و ارتباطی 9 - جمع‌بندی کاربردها و گردش کار داده: 1 - خوش‌آمدگویی 2 - Hautahi: اهمیت برقراری ارتباط در حرفه‌ی علوم داده 3 - آشنایی با مدل PACE 4 - عناصر کلیدی ارتباط 5 - ارتباط، محرک PACE 6 - PACE و موضوعات دوره‌ی آینده 7 - جمع‌بندی پروژه پایانی دوره: 1 - ارزش یک پورتفولیو 2 - معرفی پروژه پایانی دوره برای پورتفولیو 3 - جمع‌بندی پروژه پایانی دوره و نکاتی برای موفقیت شغلی در آینده 4 - جمع‌بندی دوره
درباره دوره: هرچه داده‌های بیشتری تولید کنیم، درک همه آن داده‌ها و استخراج بینش معنادار از آن‌ها دشوارتر می‌شود. داده کاوی راه‌حلی برای این موضوع ارائه می‌دهد، راه‌حلی که روش‌های تصمیم‌گیری کسب‌وکارها، کاهش هزینه‌ها و افزایش درآمد را شکل خواهد داد. دوره آموزش داده کاوی با هدف آموزش این ترند در دنیای کامپیوتر و برنامه‌نویسی ارائه شده است و به‌خوبی مفاهیم مربوط به درس داده کاوی را ارائه می‌دهد. دوره آموزش داده کاوی مکتب خونه، در ٢٤ جلسه در قالب محتوای ویدیویی از کلاس دانشگاه اصفهان گردآوری‌شده است. این دوره آموزشی در ٢٥ ساعت به کاربران ارائه می‌شود و در آن مفاهیم داده کاوی پوشش داده خواهد شد. دوره آموزش داده کاوی برای تمامی افرادی که به مفاهیم علم داده، تحلیل داده، متن کاوی، یادگیری ماشین، هوش مصنوعی و غیره علاقه‌مند هستند، مناسب است. به‌صورت کلی این دوره برای افراد زیر توصیه می‌شود. هدف از ارائه آموزش دیتا ماینینگ، آموزش مفاهیم و تکنیک‌های مربوط به داده کاوی به کاربران است. این آموزش یک آموزش کلاس محور است و برای اهداف کاربردی نیز مناسب خواهد بود. داده ‌کاوی (دیتا ماینینگ | data mining) معمولاً به‌عنوان فرآیند استفاده از کامپیوتر و اتوماسیون برای جستجوی مجموعه‌های بزرگی از داده‌ها برای الگوها و روندها، تبدیل آن یافته‌ها به بینش‌ها و پیش‌بینی‌های تجاری تعریف می‌شود. داده کاوی فراتر از فرآیند جستجو است، زیرا از داده‌ها برای ارزیابی احتمالات آینده و توسعه تجزیه‌وتحلیل‌های عملی استفاده می‌کند. دوره آموزش داده کاوی مختص آموزش این ترند است و بیشتر مفاهیمی که در داده کاوی موجود هستند را برای کاربران پوشش می‌دهد. مفهوم داده کاوی قبل از کامپیوترها وجود داشته است. آغاز داستان داده کاوی توسط قضیه بیز در سال 1763 و کشف تحلیل رگرسیون در سال 1805 آغاز شد. از طریق ماشین جهانی تورینگ (1936)، کشف شبکه‌های عصبی (1943)، توسعه پایگاه‌های داده (دهه 1970) و الگوریتم‌های ژنتیک (1975) و کشف دانش در پایگاه‌های داده (1989)، زمینه برای درک مدرن ما از آنچه داده کاوی امروزی است فراهم شد. همچنین بعداً با رشد پردازنده‌های کامپیوتری، ذخیره‌سازی داده‌ها و فناوری در دهه‌های 1990 و 2000، داده‌کاوی نه‌تنها قدرتمندتر، بلکه در انواع موقعیت‌ها نیز پربارتر شد. داده کاوی و یادگیری ماشینی (machine learning) فرآیندهای منحصربه‌فردی هستند که اغلب مترادف در نظر گرفته می‌شوند. با این حال، درحالی‌که هر دو برای تشخیص الگوها در مجموعه داده‌های بزرگ مفید هستند، عملکرد آن‌ها بسیار متفاوت است. داده کاوی فرآیند یافتن الگوها در داده‌ها خواهد بود. زیبایی داده کاوی در این است که با شناسایی پیشگیرانه الگوهای داده غیرشهودی از طریق الگوریتم‌ها (به‌عنوان‌مثال، مصرف‌کنندگانی که شیر می‌خرند به‌احتمال‌زیاد بیسکویت می‌خرند) به سؤالاتی که نمی‌دانستیم بپرسیم، پاسخ دهیم. با این حال، تفسیر این بینش‌ها و کاربرد آن‌ها در تصمیم‌گیری‌های تجاری همچنان نیازمند مشارکت انسانی است. در همین حال، یادگیری ماشینی فرآیندی است که به کامپیوتر یاد می‌دهد تا مانند انسان‌ها یاد بگیرد. با یادگیری ماشینی، کامپیوترها یاد می‌گیرند که چگونه احتمالات را تعیین کرده و بر اساس تجزیه‌وتحلیل داده‌های خود پیش‌بینی کنند. یادگیری ماشین گاهی از داده کاوی به‌عنوان بخشی از فرآیند خود استفاده می‌کند، در نهایت نیازی به دخالت مکرر انسان به‌صورت مداوم ندارد، به‌عنوان نمونه می‌توان از یادگیری عمیق و شبکه عصبی اشاره کرد که از دیتا ماینینگ استفاده می‌کنند. داده کاوی از یک روش کاملاً ساختاریافته و شش مرحله‌ای پیروی می‌کند که به‌عنوان فرآیند استاندارد بین صنعت برای داده کاوی (CRISP-DM) شناخته می‌شود. این فرآیند کار را در مراحل و در صورت لزوم تکرار مراحل را تشویق می‌کند. در واقع، تکرار مراحل اغلب برای توضیح تغییر داده‌ها یا معرفی متغیرهای مختلف ضروری است. در دوره آموزش داده کاوی مراحل و فرایند داده کاوی آموزش داده خواهد شد اما با این حال در زیر به این مراحل اشاره شده است. بیایید نگاهی دقیق‌تر به هر مرحله از CRISP-DM بیندازیم: برای شروع، ابتدا این سؤالات را بپرسید: هدف ما چیست؟ برای حل چه مشکلی تلاش می‌کنیم؟ چه داده‌هایی برای حل آن نیاز داریم؟ بدون درک روشنی از داده‌های مناسب برای استخراج، پروژه می‌تواند خطاها، نتایج نادرست یا نتایجی ایجاد کند که به سؤالات صحیح پاسخ نمی‌دهند. پس از تعیین هدف کلی، داده‌های مناسب باید جمع‌آوری شوند. داده‌ها باید با موضوع مرتبط باشند و معمولاً از منابع مختلفی مانند سوابق فروش، نظرسنجی مشتریان و داده‌های موقعیت جغرافیایی می‌آیند. هدف این مرحله ‌این است که اطمینان حاصل شود که داده‌ها به‌درستی تمام مجموعه داده‌های لازم برای رسیدگی به هدف را در برمی‌گیرند. زمان‌برترین مرحله، مرحله آماده‌سازی، شامل سه مرحله است: استخراج، تبدیل و بارگذاری که به آن ETL نیز گفته می‌شود. ابتدا داده‌ها از منابع مختلف استخراج شده و در یک منطقه مرحله‌بندی سپرده می‌شوند. در مرحله بعد، در مرحله تبدیل: داده‌ها تمیز می‌شوند، مجموعه‌های تهی پر می‌شوند، داده‌های پرت و تکراری حذف می‌شوند، خطاها برطرف می‌شوند و همه داده‌ها به جداول اختصاص می‌یابد. در مرحله آخر، بارگذاری، داده‌های فرمت شده برای استفاده در پایگاه داده بارگذاری می‌شوند. مدل‌سازی داده‌ها به مجموعه داده‌های مربوطه می‌پردازد و بهترین رویکرد و تحلیل‌های آماری و ریاضی را برای پاسخگویی به سؤال‌های هدف در نظر می‌گیرد. تکنیک‌های مدل‌سازی مختلفی مانند طبقه‌بندی، خوشه‌بندی و تحلیل رگرسیون موجود است که در دوره آموزش داده کاوی موردبحث واقع‌شده‌اند. پس از ساخت و آزمایش مدل‌ها، زمان ارزیابی کارایی آن‌ها در پاسخ به سؤالی که در مرحله درک کسب‌وکار شناسایی‌شده است فرا می‌رسد. این یک مرحله انسان‌محور است، زیرا فردی که پروژه را اجرا می‌کند باید تعیین کند که آیا خروجی مدل به‌اندازه کافی اهداف آن‌ها را برآورده می‌کند یا خیر. در غیر این صورت، می‌توان مدل متفاوتی ایجاد کرد یا داده‌های متفاوتی تهیه کرد. هنگامی که مدل data کاوی دقیق و موفق در پاسخ به سؤال عینی تلقی شد، زمان استفاده از آن فرا می‌رسد. استقرار می‌تواند در قالب یک ارائه بصری یا یک گزارش به اشتراک‌گذاری بینش رخ دهد. همچنین می‌تواند به اقداماتی مانند ایجاد یک استراتژی فروش جدید یا اجرای اقدامات کاهش ریسک منجر شود. داده کاوی در شناسایی الگوهای داده و استخراج بینش تجاری مفید از آن الگوها بسیار مفید است. برای انجام این وظایف، متخصصین از تکنیک‌های مختلفی برای تولید نتایج متفاوت استفاده می‌کنند. در اینجا پنج تکنیک رایج داده کاوی آورده شده است که این تکنیک‌ها در دوره آموزش داده کاوی نیز آورده شده‌اند. تکنیک طبقه‌بندی یا کلاس‌بندی، نقاط داده بر اساس یک سؤال یا مشکل خاص به گروه‌ها یا کلاس‌ها اختصاص داده می‌شود که در دوره آموزش دیتا ماینینگ آموزش داده خواهد شد. این تابع به دنبال کشف روابط بین نقاط داده خواه بود. از آن برای تعیین اینکه آیا یک عمل یا متغیر خاص دارای ویژگی‌هایی است که می‌تواند با سایر اقدامات مرتبط باشد استفاده می‌شود. در دوره آموزش داده کاوی مفاهیم مربوط به خوشه‌بندی پوشش داده شده است. علاوه بر جستجوی الگوها، داده کاوی به دنبال کشف داده‌های غیرعادی در یک مجموعه است. تشخیص ناهنجاری فرآیند یافتن داده‌هایی است که با الگو مطابقت ندارند. این فرآیند می‌تواند به یافتن موارد تقلب کمک کند و به خرده‌فروشان کمک کند تا در مورد افزایش یا کاهش فروش محصولات خاص بیشتر بدانند. خوشه‌بندی به دنبال شباهت‌ها در یک مجموعه داده می‌گردد و نقاط داده‌ای را که ویژگی‌های مشترک دارند را به زیرمجموعه‌ها جدا می‌کند. این شبیه به نوع تجزیه‌وتحلیل طبقه‌بندی است که نقاط داده را گروه‌بندی می‌کند، اما در تجزیه‌وتحلیل خوشه‌بندی، داده‌ها به گروه‌های قبلاً تعریف‌شده اختصاص داده نمی‌شوند. خوشه‌بندی برای تعریف صفات در یک مجموعه داده مفید است، مانند تقسیم‌بندی مشتریان بر اساس رفتار خرید، وضعیت نیاز، مرحله زندگی یا ترجیحات احتمالی در ارتباطات بازاریابی. در دوره آموزش داده کاوی مباحث خوشه‌بندی به‌صورت کامل پوشش داده خواهد شد. تجزیه‌وتحلیل رگرسیون در مورد درک این است که کدام عوامل در یک مجموعه داده مهم‌تر هستند، چه عواملی می‌توانند نادیده گرفته شوند و چگونه این عوامل با هم تعامل دارند. با استفاده از این روش، داده‌کاوی‌ها می‌توانند نظریه‌هایی را تأیید کنند. کسب‌وکارها از داده‌کاوی استفاده می‌کنند تا با استفاده از داده‌هایی که در مورد مشتریان، محصولات، فروش و کمپین‌های تبلیغاتی و بازاریابی جمع‌آوری می‌کنند، مزیت رقابتی به خود بدهند. داده کاوی به آن‌ها کمک می‌کند تا عملیات را سریع‌تر کنند، روابط با مشتریان فعلی را بهبود بخشند و مشتریان جدیدی به دست آورند. به‌صورت کلی کاربردهای داده کاوی را می‌توان در موارد زیر خلاصه کرد ولی کاربردها به این موارد خلاصه نمی‌شود. در ابتدایی ترین کاربرد، خرده‌فروشان از تجزیه‌وتحلیل سبد برای تجزیه‌وتحلیل آنچه مصرف‌کنندگان می‌خرند استفاده می‌کنند. این یک شکل از تکنیک تداعی است که به خرده‌فروشان بینشی در مورد عادات خرید می‌دهد و به آن‌ها اجازه می‌دهد خریدهای دیگر را توصیه کنند. پیش‌بینی فروش شکلی از تحلیل پیش‌بینی‌کننده است که کسب‌وکارها بیشتر از بودجه خود را به آن اختصاص می‌دهند. داده کاوی می‌تواند با بررسی داده‌های تاریخی مانند سوابق فروش، شاخص‌های مالی، عادات مخارج مصرف‌کننده، فروش منتسب به یک زمان خاص از سال و روندها، به کسب‌وکارها کمک کند تا فروش را پیش‌بینی کنند و اهداف تعیین کنند. کسب‌وکارها پایگاه‌های داده بزرگی از داده‌های مصرف‌کننده می‌سازند که از آن برای شکل‌دهی و تمرکز تلاش‌های بازاریابی خود استفاده می‌کنند. این کسب‌وکارها به راه‌هایی برای مدیریت و استفاده از این داده‌ها برای توسعه ارتباطات بازاریابی هدفمند و شخصی‌شده نیاز دارند. داده کاوی به کسب‌وکارها کمک می‌کند تا رفتارهای مصرف‌کننده را درک کنند، اطلاعات تماس و سرنخ‌ها را ردیابی کنند و مشتریان بیشتری را در پایگاه‌های داده بازاریابی خود درگیر کنند. داده کاوی می‌تواند اطلاعات به‌روزی را در مورد موجودی محصول، برنامه‌های تحویل و الزامات تولید در اختیار کسب‌وکارها قرار دهد. داده کاوی همچنین می‌تواند به حذف برخی از عدم قطعیت‌های ناشی از مسائل ساده عرضه و تقاضا در زنجیره تأمین کمک کند. سرعتی که داده‌کاوی می‌تواند الگوها را تشخیص دهد و پیش‌بینی‌ها را طراحی کند، به شرکت‌ها کمک می‌کند تا سهام محصول خود را بهتر مدیریت کنند و کارآمدتر عمل کنند. کسب‌وکارها، به‌ویژه خرده‌فروشان، حجم عظیمی از داده‌ها را از طریق برنامه‌های وفاداری تولید می‌کنند. داده کاوی به این کسب‌وکارها اجازه می‌دهد تا از طریق این داده‌ها روابط با مشتری را ایجاد و تقویت کنند. در زیر چند موقعیت برتر که از تکنیک‌های داده کاوی استفاده می‌کنند آورده شده است. مدیران پایگاه داده نقش‌های حیاتی در ذخیره، ایمن‌سازی و بازیابی بالقوه داده‌های یک شرکت ایفا می‌کنند. آن‌ها اطمینان حاصل می‌کنند که تحلیلگران می‌توانند در صورت نیاز به داده‌های مناسب دسترسی داشته باشند. مدیریت پایگاه داده یک زمینه در حال گسترش با پتانسیل حقوق و دستمزد زیادی است. دانشمندان علوم کامپیوتر و اطلاعات فناوری جدید (زبان‌های کامپیوتری، سیستم‌عامل‌ها، نرم‌افزارها و غیره) را در فضایی که به‌سرعت در حال گسترش است طراحی می‌کنند و همیشه در جستجوی ایده‌های جدید هستند. آن‌ها در زمینه‌هایی مانند مالی، فناوری، مراقبت‌های بهداشتی و اکتشاف علمی کار می‌کنند. تحلیلگران تحقیقاتی مطالعات بازاریابی را برای کمک به شرکت‌ها برای هدف قرار دادن مشتریان جدید، افزایش فروش و تعیین پتانسیل فروش محصولات جدید انجام می‌دهند. رشد تجارت الکترونیک باعث رشد در این زمینه می‌شود. معماران شبکه ارتباطات داده یک شرکت را طراحی، می‌سازند و نگهداری می‌کنند که می‌تواند از چند کامپیوتر تا یک مرکز داده بزرگ و مبتنی بر ابر را شامل شود. کارشناسان امنیت دیجیتال تقریباً برای هر سازمانی که نیاز به محافظت از داده‌های حساس و جلوگیری از حملات سایبری دارد ضروری شده‌اند و داده کاوی این پتانسیل را دارد که به آن‌ها کمک کند. به‌صورت کلی در حال حاضر همه شرکت‌های بزرگ و کوچک که مبنی بر فناوری و اینترنت هستند از داده کاوی بهره می‌برند، بنابراین یادگیری داده کاوی با منابع و مراجع آموزشی به‌نوعی ضرورت تبدیل‌شده است. دوره آموزش داده کاوی مکتب خونه نقطه شروع خوبی برای انجام این کار است. فیلم های آموزشی: 1 - جلسه اول - شناخت انواع داده‌ها و ویژگی‌ها 2 - جلسه دوم - انواع ویژگی‌ها و توصیف آماری داده‌ها 3 - جلسه سوم - شناخت داده‌ها (پراکندگی، توزیع نرمال، تحلیل هیستوگرام، اندازه‌گیری شباهت و عدم شباهت داده‌ها) 4 - جلسه چهارم - تکمیل روش‌های شباهت‌سنجی-مصورسازی داده‌ها 5 - جلسه پنجم - عملیات پیش‌پردازش وپاک‌سازی داده‌ها 6 - جلسه ششم - عملیات پیش پردازش- تجمیع داده‌ها (تحلیل همبستگی – تست کای-دو) 7 - جلسه هفتم - روش‌های کاهش داده- (کاهش بعد، تبدیل موجک، تبدیل HAAR) 8 - جلسه هشتم - روش‌های کاهش داده- هیستوگرام، خوشه‌بندی و… 9 - جلسه نهم - انواع روش‌های گسسته‌سازی 10 - جلسه دهم - انباره داده‌ها-شماهای ستاره‌ای، دانه‌برفی تحلیل الگوهای پرتکرار 11 - جلسه یازدهم - ایجاد قوانین انجمنی 12 - جلسه دوازدهم - الگوریتم Apriori 13 - جلسه سیزدهم - افزایش بهره‌وری الگوریتم Apriori و شروع FP-growth 14 - جلسه چهاردهم - الگوریتم Eclat و معیارهای ارزیابی قوانین انجمنی 15 - جلسه پانزدهم - مفاهیم دسته‌بندی داده‌ها 16 - جلسه شانزدهم - درخت تصمیم 17 - جلسه هفدهم - بررسی معیارهای شاخص و هرس درخت تصمیم 18 - جلسه هجدهم - دسته‌بندی بیزین - دسته‌بندی مبتنی بر قانون 19 - جلسه نوزدهم - استخراج قوانین درخت تصمیم 20 - جلسه بیستم - ارزیابی و مقایسه روش‌های دسته‌بندی 21 - جلسه بیست و یکم - Ensemble Methods 22 - جلسه بیست و دوم - روش‌های دسته‌بندی پیشرفته 23 - جلسه بیست و سوم - مفاهیم خوشه‌بندی – k-means 24 - جلسه بیست و چهارم - خوشه‌بندی سلسله‌مراتبی
درباره دوره: دوره" Exploring and Preparing your Data with BigQuery" به بررسی چالش‌های رایج تحلیل‌گران داده می‌پردازد و روش‌های حل آن‌ها را با استفاده از ابزارهای قدرتمند کلان‌داده در Google Cloud آموزش می‌دهد. در این دوره، شما با مباحث بنیادی SQL آشنا خواهید شد و توانایی‌های خود را در استفاده از BigQuery و Dataprep برای تحلیل و تبدیل مجموعه‌های داده به طور عملی تقویت خواهید کرد. با بهره‌گیری از این ابزارها، یاد خواهید گرفت چگونه داده‌های بزرگ را به طور مؤثر مدیریت و تجزیه‌وتحلیل کنید تا به بینش‌های کاربردی و مفیدی دست یابید. این دوره نخستین بخش از مجموعه آموزشی "از داده‌ها تا بینش‌ها با Google Cloud" است و برای آن دسته از افرادی که به دنبال گسترش دانش خود در زمینه تحلیل داده‌ها هستند طراحی شده است. پس از اتمام این دوره و کسب تجربه لازم، شما می‌توانید به دوره بعدی با عنوان "ایجاد مجموعه‌داده‌های جدید در BigQuery و تجسم بینش‌ها" ملحق شوید تا با تکنیک‌های پیشرفته‌تر در زمینه تحلیل داده و تجسم نتایج آشنا شوید و مهارت‌های خود را به سطح بالاتری ارتقا دهید. مقدمه‌ای بر داده‌ها در Google Cloud: 1 - چالش‌های تحلیل داده که تحلیل‌گران داده با آن مواجه هستند 2 - مقایسه کلان‌داده در محیط‌های داخلی و ابری 3 - موارد کاربرد واقعی 4 - مبانی پروژه در Google Cloud مرور ابزارهای داده‌های بزرگ: 1 - وظایف و چالش‌های تحلیل‌گر داده و ابزارهای داده Google Cloud 2 - ۹ ویژگی بنیادی BigQuery 3 - مرور: نمودار معماری داده 4 - ابزارهای Google Cloud برای تحلیل‌گران، دانشمندان داده و مهندسان داده 5 - Coursera: شروع به کار با Google Cloud Platform و Qwiklabs کاوش داده‌های خود با SQL: 1 - معرفی مجموعه داده‌های تجارت الکترونیک در Google Analytics 2 - تکنیک‌های رایج در کاوش داده‌ها 3 - مبانی پرس‌وجو (Query) 4 - معرفی توابع 5 - فیلترها، تجمیع‌ها و داده‌های تکراری 6 - انواع داده‌ها، توابع تاریخ و NULLها 7 - فیلترهای wildcard با LIKE قیمت‌گذاری BigQuery: 1 - وظایف BigQuery 2 - مدیریت اندازه و هزینه 3 - بهینه‌سازی پرس‌وجوها برای کاهش هزینه پاک‌سازی و تبدیل داده‌های شما: 1 - ۵ اصل حفظ یکپارچگی مجموعه داده‌ها 2 - شکل و انحراف مجموعه داده‌ها 3 - پاک‌سازی و تبدیل داده‌ها با استفاده از SQL 4 - پاک‌سازی و تبدیل داده‌ها با استفاده از یک رابط کاربری جدید: معرفی Dataprep 5 - اجزای Data Fusion 6 - ساخت یک پایپ‌لاین 7 - کاوش داده‌ها با استفاده از Wrangler خلاصه دوره: 1 - خلاصه دوره
درباره دوره: امروزه مصورسازی داده‌ها یک تکنیک بسیار مهم است زیرا بصری سازی به درک بهتر و سریع‌تر اطلاعات بسیار کمک می‌کند؛ بنابراین، کار با ابزارهای مصورسازی داده‌ها مانند Tableau به هرکسی کمک می‌کند تا داده‌ها را بهتر درک کند و ابزار مهمی درزمینهٔ علم داده به‌صورت کلی و داده‌کاوی به‌صورت تخصصی به‌حساب می‌آید. دوره آموزش Tableau با هدف آموزش این ابزار مصورسازی داده تدوین و ‌شده است که در ادامه به معرفی دوره آموزش Tableau و همچنین جنبه‌های مختلف این نرم‌افزار خواهیم پرداخت. نکته: ویدیوهای زبان اصلی دوره به صورت رایگان هستند اما برای دسترسی به زیرنویس فارسی ویدیوها می توانید محتوای دوره را خریداری کنید. نرم‌افزار تبلو Tableau به‌منظور تجزیه‌وتحلیل و مصورسازی داده‌ها طراحی‌شده است. در این نرم‌افزار برای مصورسازی داده از نوع نمودار از مکعب‌های پردازش تحلیلی آنلاین، پایگاه داده‌های ابری، پایگاه داده‌های رابطه‌ای و صفحات گسترده استفاده می‌شود. علاوه بر این در نرم‌افزار Tableau می‌توان داده‌ها را از یک موتور داده در حافظه بازیابی، استخراج و ذخیره کرد. اصلی‌ترین قابلیت این نرم‌افزار را می‌توان سهولت تجزیه‌وتحلیل و به اشتراک‌گذاری حجم بزرگی از اطلاعات دانست. هدف از دوره جامع آموزش Tableau تجزیه‌وتحلیل و نمایش داده‌ها با استفاده از نرم‌افزار تبلو به‌صورت گام‌به‌گام است. نرم‌افزار Tableau ابزاری به‌حساب می‌آید که به‌طور گسترده‌ای برای تجزیه‌وتحلیل و تجسم داده استفاده می‌شود و بسیاری آن را برای کارهای مرتبط با علوم داده ضروری می‌دانند. رابط کشیدن و رها کردن آن، مرتب‌سازی، مقایسه و تجزیه‌وتحلیل داده‌ها از چندین منبع ازجمله اکسل، سهولت استفاده، SQL سرور و مخازن داده مبتنی بر ابر از خصوصیات مهم این نرم‌افزار است. در واقع نرم‌افزار Tableau ابزاری قدرتمند و همه‌کاره برای مصورسازی داده‌هاست؛ لذا یادگیری این نرم‌افزار برای تمام کسانی که می‌خواهند در کسب‌وکار و یا شرکت خود موفق عمل کنند، توصیه می‌گردد. یکی از خصوصیات اصلی این نرم‌افزار را می‌توان سهولت استفاده از آن دانست. سهولت استفاده از این نرم‌افزار باعث می‌شود تا سریع مباحث مربوط به تجزیه‌وتحلیل داده‌های کسب‌وکار خود را انجام دهید. تسلط به این نرم‌افزار به شما این امکان را می‌دهد تا در محیط کار خود تصمیمات عالی بگیرید. شما در طول این دوره آموزش تبلو با مهارت‌های مانند مصورسازی داده‌ها و نحوه ویرایش مصورسازی داده‌ها نظیر جدول‌های برجسته، نمودارها، نمودارهای پراکندگی، هیستوگرام‌ها، نقشه‌ها و داشبورد را کسب می‌کنید. همچنین به‌مرور شما با ویژگی‌های جدید خاص در این نرم‌افزار مانند Viz Animations یا انیمیشن‌های Viz آشنا می‌شوید. این ویژگی به شما امکان می‌دهد تا حرکت انیمیشنی برای علامت‌های موجود در تجسم داده ایجاد کنید. این موضوع باعث می‌شود که شما نحوه تغییر داده‌های خود را به‌صورت بصری دنبال کنید و نحوه تغییر یافتن داده‌های خود را بهتر ببینید و درک کنید. دوره آموزش Tableau دوره بسیار مناسبی برای علاقه‌مندان به علومی مانند آمار و داده برای اهداف مصورسازی است. در این دوره آموزش Tableau، شما مطالبی نظیر نصب نرم‌افزار تبلو، اتصال به منابع داده مرتب‌سازی اطلاعات و فیلتر کردن داده‌های خود را خواهید آموخت. در این دوره، شما آنچه را که برای تحلیل و نمایش داده‌ها با استفاده از نرم‌افزار Tableau که لازم است بدانید را یاد خواهید گرفت. همان‌طور که گفته شد یکی از خصوصیات نرم‌افزار سهولت استفاده آن است. در واقع نرم‌افزار Tableau محیطی را برای کاربران ایجاد می‌کند تا تمام فعالیت خود را به‌صورت Drag drop اطلاعات و تصاویر انجام دهند. در پایان این دوره آموزش نرم افزار تبلو نیز تمرین‌هایی به‌منظور تسلط شما بر این نرم‌افزار وجود دارد. یکی از نکات مثبت این دوره آموزش Tableau را می‌توان ارائه مثال‌های واقعی برای نشان‌دادن توانایی‌های نرم‌افزار تبلو برای مصور کردن داده‌ها دانست. تبلو در کاربردهای زیادی قابلیت استفاده را دارد که بخشی از موارد استفاده از نرم‌افزار Tableau در زیر ذکر شده است: 1. هوش مصنوعی، یادگیری ماشین و داده‌کاوی (برای اموری مانند خوشه‌بندی، طبقه‌بندی و غیره) 2. هوش تجاری Tableau 3. مصورسازی داده‌ها 4. ترکیب داده‌ها 5. همکاری داده‌ها 6. برای ایجاد پرس‌وجوهای داده بدون کد 7. تجزیه‌وتحلیل داده‌ها در زمان واقعی 8. برای مدیریت ابر داده با اندازه بزرگ 9. برای واردکردن حجم بزرگ داده 10. و غیره سازمان‌هایی مانند آمازون، والمارت، اکسنچر، لنوو و غیره به‌طور گسترده از Tableau استفاده می‌کنند. با گذراندن دوره آموزش Tableau در مکتب خونه می‌توانید به این نرم‌افزار مسلط شوید و توانایی ورود به بازار کار را کسب کنید. چرا از نرم‌افزار تبلو زمانی که ابزارهای زیادی برای انجام مصورسازی داده‌ها وجود دارد استفاده کنیم؟ Tableau بسیار مورد استفاده قرار می‌گیرد زیرا داده‌ها را می‌توان بسیار سریع با آن تجزیه‌وتحلیل کرد. همچنین، مصورسازی‌ها به‌صورت داشبورد و کاربرگ در تبلو تولید می‌شوند. Tableau به فرد امکان می‌دهد داشبوردهایی ایجاد کند که بینش‌های عملی را ارائه می‌دهد. Tableau توسط دانشمندان داده برای کاوش داده‌ها با تجزیه‌وتحلیل بصری مناسب استفاده می‌شود. ابزار تبلو دارای ویژگی‌های منحصربه‌فرد زیر است: و بسیاری از موارد دیگر، Tableau را به یکی از معروف‌ترین ابزارهای مصورسازی داده تبدیل کرده است که در دوره آموزش Tableau با آن‌ها آشنا خواهیم شد. مصورسازی داده‌ها نمایش تصویری یک مجموعه داده یا اطلاعات با استفاده از نقشه‌ها، نمودارها، گراف‌ها و سایر عناصر بصری است. مصورسازی داده به درک آسان روند، بینش، الگوها و سایر ارتباطات در مجموعه داده کمک می‌کند. Tableau یکی از محبوب‌ترین ابزارهای مصورسازی داده است که توسط بسیاری از شرکت‌ها و کسب‌وکارها برای به دست آوردن بینش بهتر در مورد داده‌هایشان برای ارائه بهترین تجربه به مشتری استفاده می‌شود که دوره آموزش Tableau با هدف مصورسازی داده‌ها به‌صورت پروژه محور کار با این نرم‌افزار را آموزش می‌دهد. کار اصلی نرم‌افزار Tableau اتصال و استخراج داده‌های ذخیره‌شده در مکان‌های مختلف است. Tableau می‌تواند داده‌ها را از هر پایگاه داده، اعم از Excel، PDF، Oracle یا حتی وب‌سرویس‌های آمازون استخراج کند. هنگامی‌که Tableau راه‌اندازی شود، اتصال‌دهنده‌های داده آماده زیادی در دسترس هستند که به شما امکان می‌دهند به انواع پایگاه داده متصل شوید. داده‌های استخراج‌شده را می‌توان به‌صورت زنده به موتور داده Tableau، Tableau Desktop متصل کرد. Tableau جایی است که در آن تحلیلگر داده یا مهندس داده با داده‌های جمع‌آوری‌شده کار می‌کند و مصورسازی را توسعه می‌دهد. در Tableau داشبوردهای ایجادشده در قالب فایل‌های ثابت با کاربران به اشتراک گذاشته می‌شوند. کاربران دریافت‌کننده داشبورد فایل‌ها را با استفاده از Tableau Reader مشاهده می‌کنند. داده‌های استخراج‌شده از Tableau Desktop را می‌توان در Tableau Server منتشر کرد که یک پلتفرم سازمانی است که در آن همکاری، توزیع، حاکمیت، مدل امنیتی و ویژگی‌های اتوماسیون پشتیبانی می‌شود. با استفاده از Tableau Server، کاربران نهایی می‌توانند از همه مکان‌ها، خواه دسکتاپ یا تلفن همراه، به فایل‌ها دسترسی داشته باشند. در ادامه با تبلو دسکتاپ و تبلو سرور بیشتر آشنا خواهیم شد. در زیر دو روشی وجود دارد که می‌توان تجزیه‌وتحلیل داده‌های Tableau را با آن‌ها توصیف کرد: این محصول به شخص امکان کد نویسی و اصلاح گزارش‌ها را می‌دهد. از ایجاد گزارش‌ها و نمودارها تا ترکیب آن‌ها برای تشکیل یک داشبورد، همه این کارها در Tableau Desktop انجام می‌شود. Tableau Desktop با توجه به اتصال و منابع داده به موارد زیر طبقه‌بندی می‌شود: 1. Tableau Desktop Personal 2. Tableau Desktop Professional این ابزاری است که به شما امکان می‌دهد مصورسازی‌ها و نتایج تولیدشده با استفاده از Tableau Public یا Tableau Desktop را مشاهده کنید. با این ابزار داده‌ها را می‌توان به‌راحتی فیلتر کرد. این ابزار عمدتاً برای به اشتراک‌گذاری مصورسازی‌ها و نتایج کاری که در برنامه Tableau Desktop در تولید می‌شوند مورد استفاده قرار می‌گیرد. نتایج پس از بارگذاری در سرورهای مربوطه قابل‌دسترسی خواهد بود. برای افزایش اشتراک‌گذاری داشبوردها در Tableau Server، باید کار خود را از قبل در Tableau Desktop منتشر کنید. اگرچه، داشتن یک سرور Tableau برای کاربران دارای مجوز کاملاً اجباری نیست. از آنجایی که امنیت Tableau Server بالا است، برای به اشتراک‌گذاری سریع و مؤثر داده‌ها ابزار بسیار مناسبی به‌حساب می‌آید که در دوره آموزش Tableau کار با آن آموزش داده خواهد شد. Tableau Online یک ابزار اشتراک‌گذاری است و کاربرد مشابهی با Tableau Server دارد، اما داده‌ها در سرورهایی ذخیره می‌شوند که در ابری که توسط گروه Tableau نگهداری می‌شوند، ذخیره می‌شوند. داده‌هایی که می‌توانند در Tableau Online منتشر شوند محدودیت ذخیره‌سازی ندارند. Tableau Online و Server، هر دو به نتایج کاری نیاز دارند که توسط Tableau Desktop ایجادشده‌اند تا داده‌ها را پخش کنند. داده‌های پخش‌شده از برنامه‌های وب، خواه Salesforce یا Google Analytics، توسط هر دو، Tableau Online و Tableau Server پشتیبانی می‌شوند. Tableau Public به‌طور ویژه برای کاربرانی که قصد صرفه‌جویی دارند ساخته شده است. در این ابزار نتایج کاری ایجادشده را نمی‌توان به‌صورت محلی ذخیره کرد، بلکه به ابر عمومی Tableau ارسال می‌شود که برای عموم قابل‌دسترسی است. این یک نسخه اقتصادی از نرم‌افزار تبلو است که برای افرادی که مایل به یادگیری و به اشتراک‌گذاری داده‌های خود با مردم هستند بسیار مناسب خواهد بود. Tableau Prep Builder ابزاری در مجموعه محصولات Tableau به‌حساب می‌آید که برای تهیه آسان و شهودی داده‌ها طراحی‌شده است. از Tableau Prep Builder برای ترکیب، شکل دادن و تمیز کردن داده‌ها برای تجزیه‌وتحلیل در Tableau استفاده می‌کنند. در دوره آموزش Tableau با کار با این ابزار به مزایای قابل‌توجه این ابزار پی خواهیم برد اما بااین‌حال در اینجا هم چندین مزایای این پلتفرم موردبحث واقع خواهند شد. در نرم‌افزار Tableau می‌توانید با داده‌های زیادی که هیچ نظمی ندارند کار کرده و طیف وسیعی از مصورسازی‌ها را ایجاد کنید. به لطف ویژگی‌ها و امکانات داخلی، Tableau به شما کمک می‌کند مصورسازی‌هایی ایجاد کنید که مطمئناً متمایز از مصورسازی در سایر پلتفرم‌های مشابه هستند. همچنین با این ابزار می‌توانید روش‌های مختلف مصورسازی‌های را تجربه کرده و کاوش در بین داده‌ها را در یک سطح دقیق‌تر ایجاد کنید. نرم‌افزار تبلو می‌تواند به شرکت‌ها کمک کند تا داده‌ها را بدون در نظر گرفتن اهداف خاصی تجزیه‌وتحلیل کنند. می‌توانید مصورسازی‌ها را به‌صورت عمیق در این ابزار کاوش کرده و از زوایای مختلف به داده‌های مشابه نگاه کنید. همان‌طور که در دوره آموزش Tableau و نحوه کار با آن مشاهده خواهیم کرد، این ویژگی بزرگ‌ترین نقطه قوت Tableau است. این ابزار برای افرادی که هیچ مهارت فنی یا تجربه کد نویسی ندارند مناسب بوده و هرکسی با دانش کار با کامپیوتر می‌تواند از آن استفاده کند. از آنجایی که بیشتر ویژگی‌ها در قالب کشیدن و رها کردن هستند، استفاده از Tableau بسیار آسان است. یکی دیگر از نقطه قوت‌های ابزار Tableau کار با انواع منابع و فرمت داده است. Tableau نسبت به سایر ابزارهای هوش تجاری و تجزیه‌وتحلیل داده برتری دارد، زیرا به شما امکان می‌دهد با اتصال به منابع داده‌های مختلف Tableau، پایگاه داده و فایل‌های موجود در ابر، داده‌های بزرگ موجود در صفحات گسترده و داده‌های غیر مرتبط، داده‌های یک‌بارمصرف و موارد دیگر کار کنید. انواع داده‌ها Tableau به‌راحتی انواع مختلف داده‌ها را با هم ترکیب می‌کند تا به سازمان‌ها کمک کند تا نتایج متقاعدکننده‌ای ارائه دهند و پروژه‌های معتبری را پیاده‌سازی کنند. در Tableau همچنین می‌توانید بین مصورسازی‌های مختلف جابه‌جا شوید تا درک عمیق‌تری از داده‌ها و روابط بین آن‌ها پیدا کنید. تا به اینجا فهمیدیم که ابزار Tableau، نرم‌افزار بسیار مهمی در دنیای فناوری و تکنولوژی به‌حساب می‌آید که برای مصورسازی داده‌ها از اهمیت بسیار بالایی برخوردار است. این نرم‌افزار در صنایع و حوزه‌های مختلفی کاربرد دارد و روز به روز نیز به کاربردهای آن افزوده می‌شود. اگر به فکر یادگیری اصولی Tableau هستید، یافتن نقطه شروع مناسب برای این کار بسیار اهمیت دارد. دوره آموزش Tableau مکتب خونه برای این هدف بسیار دوره خوبی است و به‌صورت قدم‌به‌قدم نحوه کار با این ابزار را به کاربر یاد می‌دهد. هم‌اکنون با ثبت‌نام در دوره آموزش Tableau اولین و مهم‌ترین قدم خود را در این راستا بردارید. فصل اول: مقدمه‌ای بر Tableau: 1 - هرآنچه قبل از شروع باید بدانید 2 - دانلود Tableau 3 - نصب درایورهای Tableau 4 - معرفی انواع فایل‌های Tableau 5 - Help در Tableau 6 - تازه‌های ورژن 2020 نرم‌افزار Tableau فصل دوم: مدیریت منابع داده و مصورسازی آن‌ها: 1 - اتصال به منبع دیتا 2 - Join related data sources in 2020.1 and 2020.2 3 - Join data sources with inconsistent field name in 2020.1 and 2020.2 4 - پاکسازی منبع داده‌ها 5 - reorder fields in visualization 6 - تغییر خلاصه عملیات 7 - شکست (Split) متن به دو ستون 8 - نمایش داده‌ها با استفاده از Storylines 9 - نمایش متادیتا (metadata) فصل سوم: مدیریت Worksheet ها و Workbook ها در Tableau: 1 - نمایش داده‌ها در ذیل یک Workbook 2 - Add ،duplicate و rename در worksheets 3 - Reorder ،clear و delete در Worksheets 4 - تغییر رنگ تب‌ها در Worksheet ها 5 - نمایش و مخفی کردن المان‌ها در Worksheet 6 - ذخیره‌سازی تغییرات 7 - ذخیره Workbook به عنوان pdf 8 - ذخیره Workbook به صورت پکیج 9 - اکسپورت داده‌ها به فرمت csv 10 - اکسپورت تصویرسازی‌ها به power point فصل چهارم: ایجاد محاسبات (Calculations) و فیلدهای (Fields) سفارشی: 1 - ایجاد یک اپراتور و توابع پایه 2 - ایجاد یک فیلد محاسبه‌شده 3 - ایجاد یک فیلد محاسبه‌شده در یک طبقه 4 - Add a table calculation 5 - Use level of detail expressions 6 - Create calculations in dialog boxes فصل پنجم: آنالیز داده‌ها: 1 - محاسبه میانگین، میانه، حداقل و حداکثر 2 - شمارش تعداد وقایع و موارد مجزا 3 - نمایش کارت خلاصه 4 - محاسبه درصد در یک جدول 5 - پیشبینی مقادیر آینده فصل ششم: مرتب کردن و فیلتر کردن داده‌ها در Tableau: 1 - مرتب‌سازی بر اساس مقادیر یک قسمت 2 - ایجاد مرتب‌سازی چندسطحی 3 - ساخت فیلتر انتخابی 4 - ساخت فیلتر Wildcard 5 - ساخت فیلتر شرطی 6 - ساخت Top filter 7 - Edit, clear, and delete filters 8 - نمایش و مخفی‌سازی بخش مرتب‌سازی 9 - فیلتر داده‌ها با استفاده از پارامترها 10 - ویرایش و پاک‌کردن پارامترها فصل هفتم: تعریف کردن گروه‌ها (Groups) و دسته‌ها (Sets): 1 - تعریف گروه 2 - Define a group for Other values 3 - پیداکردن عضو گروه 4 - ویرایش و پاک‌کردن گروه‌ها 5 - تعریف دسته (Set) 6 - ساخت خلاصه (summary) با استفاده از دسته 7 - ترکیب دسته‌ها 8 - ویرایش و پاک‌کردن دسته‌ها فصل هشتم: ایجاد و اصلاح کراس‌تب‌ها (Crosstabs): 1 - ایجاد Crosstab 2 - Unpivot a crosstab 3 - اضافه کردن Totals و Subtotals به crosstab فصل نهم: ایجاد مصورسازی‌های (Visualizations) پایه: 1 - ایجاد ستون و نمودار ستونی 2 - Create line charts and area fill charts 3 - ایجاد نمودار دایره‌ای 4 - ایجاد scatter plots 5 - شناسایی خوشه داده (data clusters) 6 - ایجاد هیستوگرام 7 - خلاصه کردن داده‌ها با استفاده از هیستوگرام 8 - ایجاد نمودار درختی (Treemap) فصل دهم: قالب‌بندی مصورسازی در Tableau: 1 - Change the visual summary type 2 - تغییر ظاهر داده‌های شما 3 - Resize a visualization 4 - نمایش تصویرسازی‌ها (Visualization) در حالت ارائه 5 - ایجاد یک جدول برجسته (highlight table) 6 - نمایش تصویرسازی‌ها (Visualization) در Tooltip فصل یازدهم: Annotating and Formatting Visualization: 1 - قالب بندی عناصر نمودار 2 - تغییر ترتیب رنگ در نمودار 3 - Annotate a visualization 4 - اضافه کردن خط روند به نمودار 5 - اضافه کردن reference lines، distributions و boxes 6 - Manage visualization animations فصل دوازدهم: نقشه‌برداری از اطلاعات جغرافیایی: 1 - ایجاد basic map 2 - اضافه و پاک‌کردن لایه‌های نقشه 3 - افزایش تجزیه و تحلیل نقشه با استفاده از ابزار های اندازه‌گیری فاصله 4 - غیر فعال‌کردن pan و zoom در نقشه 5 - تعریف مناطق سفارشی فصل سیزدهم: ساخت Dashboard و Actions: 1 - ایجاد Dashboard 2 - ترتیب و تغییر اندازه عناصر داشبورد 3 - جایگزینی سریع Worksheet ها در داشبورد 4 - تعریف عملکرد فیلتر 5 - تعریف highlight action 6 - تعریف parameter actions 7 - قدم بعدی (سخن پایانی)
درباره دوره: Oracle Data Integrator ابزاری است که در زمینه یکپارچه سازی داده‌ها کاربردهای فراوانی دارد. این نرم‌افزار تمامی نیازهای مربوط به یک‌پارچه‌سازی اطلاعات را برای کاربران برآورده می‌کند. دوره آموزش Oracle Data Integrator ضمن معرفی نرم افزار اوراکل و آموزش کار با این نرم‌افزار به بررسی اهمیت یک‌پارچه سازی اطلاعات و مدیریت داده‌ها می‌پردازد. با توجه به محتوایی که در این دوره تهیه شده است، شرکت‌کنندگان در پایان دوره می‌توانند با استفاده از ابزار Oracle Data Integrator یا ODI پایگاه داده HR_DW را براساس اسکیما HR طراحی و آن را پیاده‌سازی کنند. در این دوره به مخاطب کمک می‌شود تا علاوه بر آموزش نرم افزار اوراکل و یادگیری ابعاد مختلف کار با این نرم‌افزار به سایر موضوعات مربوط به این مفهوم نیز تسلط پیدا کند. اصلی‌ترین هدفی که در این دوره مورد نظر قرار داشته است آشنایی با ویژگی‌ها و ابعاد مختلف اوراکل و چگونگی استفاده از اوراکل در فرایند یکپارچه سازی داده ها می‌باشد. آموزش نرم افزار Oracle Data Integrator به نحوی تهیه شده است که بیشترین افراد بتوانند از این آموزش‌ها استفاده کنند. به همین جهت گروه‌های زیادی می‌توانند از این دوره آموزش اوراکل استفاده کنند. افرادی مانند دانشجویان رشته‌های مهندسی کامپیوتر، علوم کامپیوتر و مهندسی صنایع اصلی‌ترین مخاطبان این دوره به حساب می‌آیند. علاوه بر این افراد همه علاقه‌مندان به مباحث حوزه دیتا نیز می‌توانند از این دوره استفاده کنند و به مباحث ارائه شده مسلط شوند. آموزش Oracle Data Integrator کمک می‌کند تا بتوانید داده‌های خام و ناخوانا را به داده‌های قابل فهم تبدیل کنید. این آموزش به افزایش مهارت‌های شما کمک می‌کند و می‌توانید موقعیت شغلی خود را ارتقا دهید. Oracle Data Integrator یا ODI (پایگاه داده اوراکل) ابزاری است که به کسب‌وکارها کمک می‌کند تا داده‌ها را ادغام کنند. ادغام داده‌ها فرایندی است که داده‌ها را از منبع مختلف استخراج، آنها را طبق نیاز تغییر می‌دهد و تبدیل می‌کند در نهایت، در مخزنی واحد بارگذاری می‌کند. این مخزنِ واحد می‌تواند انبار داده یا هر سیستم دیگری باشد که به داده‌های یکپارچه نیاز دارد. ODI محیطی گرافیکی است که داده‌ها را ادغام می‌کند و در سیستم‌های هوش تجاری جایگاه ویژه‌ای دارد. به همین علت افراد زیادی به دنبال آموزش Oracle Data Integrator هستند تا بتوانند در دنیای تجارت جایگاه خوبی بدست آورند. آموزش ODI و استفاده از Oracle odi می‌تواند مزایای متعددی برای سازمانِ شما به همراه داشته باشد. برخی از مزایای این پلتفرم عبارت است از: کاهش زمان و هزینه: فرایند یکپارچه‌سازی داده‌ها می‌تواند زمان‌بر و پرهزینه باشد. ODI با خودکارسازی این فرایند، در وقت و هزینه شما صرفه‌جویی می‌کند. افزایش کیفیت داده‌ها: وجود داده‌های باکیفیت، برای تصمیم‌گیری‌های هوشمندانه‌ی مدیران الزامی هستند. اما متاسفانه، داده‌های خام معمولاً با مشکلاتی مثل ناقص بودن، تکراری بودن و ناسازگاری دست‌وپنجه نرم می‌کنند. Data integration با اعمال قوانین کسب‌وکار روی داده‌ها در حین فرایند تبدیل، به مدیران کمک می‌کند تا ایرادات داده‌ها را برطرف کنند و اطلاعاتی درست و قابل را بدست آورند. افزایش بهره‌وری: با استفاده از ODI  فرایند استخراج داده‌ها و بارگذاری آنها در مخزن نهایی به‌صورت خودکار انجام می‌شود. به همین علت افراد با استفاده از این ابزار می‌توانند بیشتر تمرکز خود را برای تجزیه‌وتحلیل اطلاعات بگذارند. تصمیم‌گیری بهتر: تصمیم‌گیری براساس داده‌های یکپارچه و باکیفیت، کسب‌وکارها را در مسیر موفقیت هدایت می‌کند. با استفاده از این ابزار، شرکت‌ها می‌توانند به راحتی به نمای کلی و واحد از داده‌های سازمان دست پیدا کرد. این امر به مدیران این امکان را می‌دهد تا تصمیمات آگاهانه‌تری بگیرند و کسب‌وکار خود را به سمت آینده‌ای بهتر هدایت کنند. Oracle Data Integrator (ODI) یک پلتفرم جامع برای ادغام داده‌ها است که تمامی نیازهای ادغام داده‌ها را پوشش می‌دهد. از کاربردهای آموزش Oracle Data Integrator می‌توان به موارد زیر اشاره کرد: اتصال به منابع مختلف داده: ODI قابلیت اتصال به طیف گسترده‌ای از منابع داده، از جمله پایگاه‌های داده رابطه‌ای مانند Oracle، SQL Server، DB2، سیستم‌های مدیریت فایل، سرویس‌های ابری و سایر منابع داده را دارد. ایجاد نگاشت‌های داده: نگاشت داده، نقشه‌ی راه تبدیل داده‌ها از فرمت منبع به فرمت مقصد است. Oracle odi به کاربران این امکان را می‌دهد تا نگاشت‌هایی را برای این منظور تعریف کنند. این نگاشت‌ها می‌توانند شامل عملیات مختلفی از قبیل فیلتر کردن داده‌ها، تغییر فرمت داده‌ها، اعمال قوانین کسب‌وکار و غیره باشند. مدیریت فرایندهای یکپارچه‌سازی داده‌ها: ODI محیطی برای طراحی، توسعه، اجرا و زمان‌بندی خودکار این فرآیندها را فراهم می‌کند. این فرایندها می‌توانند به صورت خودکار یا دستی اجرا شوند. امنیت و مدیریت کاربران: امنیت داده‌ها، اولویت اصلی هر سازمانی است. ODI از سیستم امنیتی قدرتمند برای کنترل دسترسی کاربران به داده‌ها و فرایندهای یکپارچه‌سازی داده‌ها استفاده می‌کند به همین علت داده‌ها در این ابزار امنیت زیادی دارند. ابزارهای مانیتورینگ و گزارش‌گیری: ابزارهایی را برای مانیتورینگ در فرایندهای یکپارچه‌سازی داده‌ها و تولید گزارش‌های مربوط به آنها ارائه می‌دهد. ابزارهای مانیتورینگ و گزارش‌گیری: با Data integration امکان نظارت بر عملکرد فرایندهای یکپارچه‌سازی وجود دارد و گزارش‌های جامعی از آنها تهیه می‌کند. این گزارش‌ها به کسب‌وکارها کمک می‌کند تا مشکلات احتمالی را شناسایی کرده و عملکرد فرایندها را بهینه‌سازی کنند. در دنیای پیشرفته‌ی امروز که بر پایه‌ی داده‌ها اداره می‌شود، وجود افرادی که آموزش Oracle Data Integrator را گذرانده باشند برای شرکت‌ها بسیار ارزشمند است. زیرا برای ادغام و یکپارچه‌سازی داده‌ها به آن نیاز دارند. از مهم‌ترین دلایل اهمیت Oracle Data Integrator می‌توان به موارد زیر اشاره کرد: Oracle Data Integrator اطمینان می دهد که داده‌های معیوب به طور خودکار قبل از درج در برنامه هدف شناسایی و بازیافت می‌شوند. این امر بدون نیاز به برنامه نویسی، با رعایت قوانین و محدودیت‌های یکپارچگی داده تعریف شده در برنامه هدف و در ODI انجام می شود. کسب‌وکارها می‌توانند با اجرای ابزار Oracle odi بر اساس پایگاه داده‌های RDBMS و SQL  خود می‌توانند تحولات داده را روی سرور مورد نظر انجام دهند و عملکرد بهتری داشته باشند. Oracle Data Integrator از کلیهRDBMS ها که شامل کلیه سیستم عامل‌های ذخیره سازی داده‌های اصلی مانندOracle ، Exadata،Teradata ، IBM DB2 و بسیاری از فناوری‌های دیگر پشتیبانی می‌کند. به همین وجود فردی که  آموزش Oracle Data Integrator را گذرانده است به کسب‌وکارها کمک می‌کند تا از داده‌ها و دیگر پلتفرم‌های خود به خوبی استفاده کنند. برای این‌که بتوانید به‌طور مؤثر از  آموزش ODI استفاده کنید، به مهارت‌های زیر نیاز دارید: آشنایی با پایگاه‌های داده: درک مفاهیم پایگاه‌های داده و نحوه‌ی کار با آن‌ها در آموزش odi برای برقراری ارتباط با منابع داده ضروری است. SQL: آیا می‌دانید آموزش sql server رایگان ODI چیست؟ شرکت در آموزش پایگاه داده sql برای استخراج و دستکاری داده‌ها در پایگاه‌های داده لازم است. همچنین با داشتن دانش پایه‌ای از SQL برای کار با ODI بسیار مفید خواهد بود. آشنایی با مفاهیم مربوط به داده: همان‌طور که گفته شد Data integration با دنیای داده‌ها سروکار دارد. به همین علت برای شرکت در  آموزش Oracle Data Integrator باید با مفاهیم اولیه‌ی داده آشنا باشید. با توجه به اهمیت روزافزون اطلاعات در کسب‌وکارها، تقاضا برای متخصصان یکپارچه‌سازی داده‌ها نیز در حال افزایش است. افرادی که با ابزارهایی مانند Oracle Data Integrator آشنایی داشته باشند، می‌توانند فرصت‌های شغلی خوبی را در زمینه‌های مختلفی از جمله: مهندسی داده (Data Engineering): مهندسان داده وظیفه‌ی طراحی، توسعه و نگهداری زیرساخت‌های داده را بر عهده دارند. آشنایی با ODI می‌تواند به آنها در یکپارچه‌سازی داده‌ها از منابع مختلف و بارگذاری آنها در مخزن داده کمک کند. تحلیل داده (Data Analytics): تحلیلگران داده از داده‌ها برای استخراج insights ارزشمند و ارائه گزارش‌های مدیریتی استفاده می‌کنند. ODI می‌تواند به شما در دسترسی به داده‌های یکپارچه و باکیفیت کمک کند. هوش تجاری (Business Intelligence): هوش تجاری به سازمان‌ها کمک می‌کند تا از داده‌ها برای تصمیم‌گیری بهتر استفاده کنند. ODI به پیاده‌سازی سیستم‌های هوش تجاری و یکپارچه‌سازی داده‌ها از منابع مختلف کمک کند. مواردی که گفته شد تنها بخشی از موقعیت‌های شغلی است با آموزش Oracle Data Integrator بدست می‌آورید. گفتنی است که در آینده تقاضا برای این شغل بیشتر خواهد شد. با توجه به اهمیت آموزش Oracle Data Integrator، مکتب خونه دوره‌ای پایه برای یادگیری آن برگزار کرده است. مدرس این دوره محمدمهدی سیمین یکی از اعضای تیم هوش تجاری یک هلدینگ در حوزه بانکداری است. مدت زمان دوره آموزش پایگاه داده اوراکل 4 ساعت است که اطلاعات مفیدی را در اختیار شما می‌گذارد. در  آموزش ODI سرفصل‌های زیر وجود دارد: ·         آموزش انتقال داده با استفاده از نرم‌افزار ODI ·         معرفی تکنولوژی‌ها ·         طراحی  DataStore ·         انتقال داده ·         ابزار Mapping ·         ابزار مربوط به  Projects ·         Packageها و Scenarioها ·         ثبت تغییرات داده‌ها (Data Capture) ·         انتقال داده‌های تغییر یافته این روزها هر کسب‌وکاری با حجم زیادی از داده‌ها سروکار دارد و برای مدیریت آنها به ابزارهای متفاوتی نیاز دارد. به همین علت باید افراد متخصصی که  آموزش Oracle Data Integrator گذرانده‌اند می‌توانند در مدیریت داده‌ها حجیم به کسب‌وکار کمک کنند. شما می‌توانید در آموزش پایگاه داده اوراکل مکتب خونه شرکت کنید و با نصب ODI و تمرین و تکرار مباحث آن تسلط کافی بر این ابزار پیدا کنید تا جایگاه خوبی بدست آورید. همچنین در مکتب خونه انواع دوره آموزش برنامه نویسی و آموزش پایگاه داده به عنوان مکمل و پیش نیاز این دوره موجود است. آموزش انتقال داده با استفاده از نرم‌افزار ODI: 1 - پیشگفتار 2 - تعاریف اولیه 3 - معرفی تکنولوژی‌ها 4 - طراحی DataStore 5 - انتقال داده 6 - ابزار Mapping 7 - ابزار مربوط به Projects 8 - Packageها و Scenarioها 9 - ثبت تغییرات داده‌ها (Data Capture) 10 - انتقال داده‌های تغییر یافته
هیچ موضوعی وجود ندارد!
قیمت - slider
210000 تومان1010000 تومان
سطح آموزش
نوع آموزش
نوع مدرک
محل آموزش
+ موارد بیشتر
زمان آموزش