0

آموزش مای اس کیو ال (MySQL)

آموزش مای اس کیو ال (MySQL)

درباره این دوره
درباره دوره: دوره آموزشی MySQL به گونه‌ای طراحی شده است که شرکت‌کنندگان را با مفاهیم و کاربردهای اساسی و پیشرفته SQL در محیط MySQL آشنا کند. این دوره شامل مباحثی از جمله ایجاد و مدیریت پایگاه‌های داده، نوشتن و اجرای دستورات SQL، استفاده از توابع و عبارات شرطی، بهینه‌سازی پرس‌وجوها، و مدیریت کاربران و دسترسی‌ها می‌باشد. دانشجویان و علاقه‌مندان به علوم کامپیوتر و فناوری اطلاعات: این دوره برای دانشجویانی که می‌خواهند مهارت‌های SQL خود را تقویت کنند و در پروژه‌های دانشگاهی و تحقیقاتی از پایگاه داده استفاده کنند، بسیار مفید است. برنامه‌نویسان و توسعه‌دهندگان نرم‌افزار: افرادی که در حوزه توسعه وب و نرم‌افزار فعالیت می‌کنند و نیاز به مدیریت داده‌ها و ایجاد برنامه‌های داده‌محور دارند، می‌توانند از این دوره بهره‌مند شوند. تحلیل‌گران داده و متخصصان BI: کسانی که در زمینه تحلیل داده و هوش تجاری فعالیت دارند و نیاز به استخراج و تحلیل داده‌ها از پایگاه‌های داده مختلف دارند، با شرکت در این دوره می‌توانند دانش و مهارت‌های لازم را کسب کنند.مدیران پایگاه داده: افرادی که مسئولیت مدیریت و نگهداری پایگاه‌های داده سازمان‌ها را برعهده دارند، می‌توانند با شرکت در این دوره با تکنیک‌های پیشرفته مدیریت و بهینه‌سازی پایگاه‌های داده آشنا شوند. این دوره با ترکیبی از مباحث تئوری و عملی، شرکت‌کنندگان را برای مواجهه با چالش‌های واقعی در زمینه مدیریت و استفاده از پایگاه‌های داده آماده می‌کند. معرفی دوره: 1 – Intro نصب و راه اندازی: 1 – سیستم مدیریت پایگاه داده (DBMS) 2 – نصب MySQL و Workbench 3 – ساخت بانک اطلاعاتی 4 – کوییز درس دوم دستورات تعریف داده (DDL): 1 – انواع داده Data Types 2 – ساخت جدول و تعریف کلید اصلی 3 – کوییز درس سوم 4 – محدود سازی فیلدها 5 – تغییر دادن جدول 6 – کوییز درس چهارم 7 – تعریف کلید خارجی 8 – کوییز درس پنجم دستکاری اطلاعات (DML): 1 – درج اطلاعات در جدول insert 2 – کوییز درس اول 3 – حذف اطلاعات delete 4 – کوییز درس دوم 5 – به روز رسانی اطلاعات update 6 – کوییز درس سوم 7 – انتخاب اطلاعات select تابع یا function: 1 – تابع 2 – مثال بررسی مبحث استخراج: 1 – اینر جوین inner join 2 – لفت جوین left join 3 – کوییز درس دوم 4 – رایت جوین right join 5 – ترکیب جوین تکمیلی: 1 – مرتب‌سازی order by و group by و ASC و DESC 2 – کوییز درس اول 3 – تعریف ویو view 4 – تعریف کاربر و انواع دسترسی‌ها پروژه پایانی: 1 – ویدیو پروژه پایانی (بخش اول) 2 – ویدیو پروژه پایانی (بخش دوم) 3 – پروژه نهایی
سرفصل‌های دوره
معرفی دوره: 1 – Intro نصب و راه اندازی: 1 – سیستم مدیریت پایگاه داده (DBMS) 2 – نصب MySQL و Workbench 3 – ساخت بانک اطلاعاتی 4 – کوییز درس دوم دستورات تعریف داده (DDL): 1 – انواع داده Data Types 2 – ساخت جدول و تعریف کلید اصلی 3 – کوییز درس سوم 4 – محدود سازی فیلدها 5 – تغییر دادن جدول 6 – کوییز درس چهارم 7 – تعریف کلید خارجی 8 – کوییز درس پنجم دستکاری اطلاعات (DML): 1 – درج اطلاعات در جدول insert 2 – کوییز درس اول 3 – حذف اطلاعات delete 4 – کوییز درس دوم 5 – به روز رسانی اطلاعات update 6 – کوییز درس سوم 7 – انتخاب اطلاعات select تابع یا function: 1 – تابع 2 – مثال بررسی مبحث استخراج: 1 – اینر جوین inner join 2 – لفت جوین left join 3 – کوییز درس دوم 4 – رایت جوین right join 5 – ترکیب جوین تکمیلی: 1 – مرتب‌سازی order by و group by و ASC و DESC 2 – کوییز درس اول 3 – تعریف ویو view 4 – تعریف کاربر و انواع دسترسی‌ها پروژه پایانی: 1 – ویدیو پروژه پایانی (بخش اول) 2 – ویدیو پروژه پایانی (بخش دوم) 3 – پروژه نهایی
موسسه برگزارکننده
دوره آموزش وردپرس مکتب‌خونه

مکتب خونه

مدرس

سید میلاد خادم

دوره‌های مشابه
درباره دوره: امروزه دنیای اینترنت موجب به وجود آمدن حجم بسیار بالایی از داده‌ها شده است که ما آن را به‌عنوان کلان داده (big data) می‌شناسیم. این کلان داده‌ها نقش به سزایی در پیشروی صنایع مختلف دارند. دوره آموزش big data مکتب خونه با هدف آشنایی کاربران با این فنّاوری ارائه شده است و از اهمیت بسیار بالایی برخوردار است. در این دوره آموزش big data دانشجویان قرار است نحوه کار با داده‌های حجیم را بیاموزند و با تکنیک‌ها و آموزش‌های لازم وارد بازار کار شوند. دوره آموزش big data مکتب خونه به هدف آموزش فنّاوری کلان داده و آشنایی کاربران با ابزارهای مهم آن توسط محمدصادق دهقان تهیه و تدوین شده است. در این دوره آموزشی که در پنج ساعت محتوای ویدیویی ارائه خواهد شد، دانشجویان با جزئیات مهمی از big data و نحوه استفاده از آن‌ها با ابزارهایی مانند آپاچی هادوپ و آپاچی اسپارک آشنا خواهند شد. هدف این دوره آموزش مبانی Big Data و آشنایی مقدماتی با ابزارهای این حوزه هست. این ویدیوها بخشی از ارائه‌های دوره کارآموزی نیمبو هست که توسط شرکت سحاب پرداز برگزار شده و سرفصل‌های دوره شامل مباحث زیر است: دوره آموزش کلان داده مکتب خونه برای تمامی افرادی که به حوزه هوش مصنوعی، یادگیری ماشین و کلان داده علاقه‌مند هستند توصیه می‌شود. با یادگیری مباحث کلان داده دانش کاربران از حوزه‌های مذکور بسیار بالا می‌رود و فرصت ورود به بازار برای آن‌ها فراهم می‌شود. اگر به فکر یادگیری مفاهیم کلان داده هستید این دوره آنلاین داده‌های حجیم را از دست ندهید. این یک دوره آموزشی از صفرتا صد بیگ دیتا نیست و شما در این دوره big data کار با ابزارهای مختلفی را یاد خواهید گرفت. از همین رو این دوره یک سری پیش‌نیاز دارد که بهتر است کاربر از قبل با آن‌ها آشنا باشد. برای یادگیری مفاهیم بالا می‌توانید از دوره‌های آموزش زبان برنامه‌نویسی پایتون مکتب خونه و دوره‌های مربوطه به sql server بهره ببرید. کلان داده (big data) به مجموعه داده‌های عظیم و پیچیده (اعم از ساختاریافته، نیمه ساختاریافته یا بدون ساختار) در علم داده اشاره دارد که به‌سرعت از منابع مختلف تولید و منتقل می‌شوند. کلان داده‌ها را می‌توان در قالب چالش‌های مدیریت داده توصیف کرد که به دلیل افزایش حجم، سرعت و تنوع داده‌ها با پایگاه‌های داده سنتی قابل‌حل نیستند. در حالی که تعاریف زیادی برای کلان داده وجود دارد، اما کلان داده با سه مفهوم زیر از داده‌های دیگر خودش را متمایز می‌کند. اگرچه کار روی داده‌های بزرگ می‌تواند طاقت‌فرسا باشد اما این مقدار داده انبوهی از اطلاعات را در اختیار متخصصان قرار می‌دهد تا از آن‌ها به نفع خود استفاده کنند. مجموعه‌های کلان داده را می‌توان برای استنباط الگوهایی در مورد منابع اصلی آن‌ها استخراج کرد و بینشی برای بهبود کارایی کسب‌وکار یا پیش‌بینی نتایج آینده کسب‌وکار ایجاد کرد. برخی از زمینه‌های قابل‌توجهی که داده‌های بزرگ مزایایی را ارائه می‌دهند عبارت‌اند از: در دوره آموزش big data ما با مزایای این نوع داده‌ها در عمل آشنا خواهیم شد و خواهیم توانست از آن‌ها به نفع خود استفاده کنیم. تجزیه‌وتحلیل داده‌های بزرگ به جمع‌آوری، پردازش، تمیز کردن و تجزیه‌وتحلیل مجموعه داده‌های بزرگ برای کمک به سازمان‌ها برای عملیاتی کردن کلان داده‌های خود اشاره دارد. در دوره آموزش big data نحوه کار کلان داده‌ها به‌صورت عملی توضیح داده می‌شود اما در اینجا به‌صورت مختصر این فرایند را توضیح می‌دهیم. جمع‌آوری داده‌ها برای هر سازمانی متفاوت به نظر می‌رسد. با فناوری امروزی، سازمان‌ها می‌توانند داده‌های ساختاریافته و بدون ساختار را از منابع مختلف جمع‌آوری کنند. از ذخیره‌سازی ابری گرفته تا برنامه‌های کاربردی تلفن همراه گرفته تا حسگرهای اینترنت اشیا در فروشگاه و سایر موارد دیگری که با دیتا سروکار دارند. هنگامی‌که داده‌ها جمع‌آوری و ذخیره می‌شوند، باید به‌درستی سازمان‌دهی شوند تا نتایج دقیقی در پرس‌وجوهای تحلیلی به دست آید، به‌خصوص زمانی که داده بزرگ و بدون ساختار باشد. از آنجاکه داده‌های موجود به‌طور تصاعدی در حال رشد است و پردازش داده‌ها را به چالشی برای سازمان‌ها تبدیل می‌کند نوع پردازش فرق خواهد کرد. یکی از گزینه‌های پردازش، پردازش دسته‌ای است که در طول زمان به بلوک‌های بزرگ داده نگاه می‌کند و معمولاً توسط سیستم‌های توزیع شده انجام می‌شود. پردازش دسته‌ای زمانی مفید است که بین جمع‌آوری و تجزیه‌وتحلیل داده‌ها زمان بیشتری وجود داشته باشد. پردازش دیگر در کلان داده، از نوع جریانی است. پردازش جریانی به یک‌باره به دسته‌های کوچکی از داده‌ها نگاه کرده و زمان تاخیر بین جمع‌آوری و تجزیه‌وتحلیل را برای تصمیم‌گیری سریع‌تر کوتاه می‌کند. پردازش جریانی پیچیده‌تر و اغلب گران‌تر است. داده‌های بزرگ یا کوچک برای بهبود کیفیت داده‌ها و گرفتن نتایج قوی‌تر نیاز به تمیز کردن دارند. همه داده‌ها باید به‌درستی قالب‌بندی شوند و هر گونه داده تکراری یا نامربوط باید حذف یا حساب شود. داده‌های پرت می‌توانند مبهم و گمراه کننده باشند و بینش‌های ناقصی ایجاد کنند. تبدیل کلان داده به حالت قابل‌استفاده زمان‌بر است. پس از آماده شدن، فرآیندهای تجزیه‌وتحلیل پیشرفته می‌توانند داده‌های بزرگ را به بینش‌های بزرگ تبدیل کنند. برخی از این روش‌های تجزیه‌وتحلیل کلان داده عبارت‌اند از: تنوع داده‌های بزرگ آن را ذاتاً پیچیده می‌کند و در نتیجه نیاز به دستگاه‌هایی است که قادر به پردازش تفاوت‌های ساختاری و معنایی مختلف آن هستند. داده‌های بزرگ به پایگاه‌ داده‌های تخصصی NoSQL نیاز دارند که می‌توانند داده‌ها را به‌گونه‌ای ذخیره کنند که نیازی به پیروی دقیق از یک مدل خاص نداشته باشد. این انعطاف‌پذیری لازم را برای تجزیه‌وتحلیل منسجم منابع اطلاعاتی به‌ظاهر متفاوت فراهم می‌کند تا دیدی جامع از آنچه اتفاق می‌افتد، نحوه عمل و زمان عمل به دست آورید. هنگام جمع‌آوری، پردازش و تجزیه‌وتحلیل کلان داده‌ها، اغلب به‌عنوان داده‌های عملیاتی یا تحلیلی طبقه‌بندی می‌شوند و بر این اساس ذخیره می‌شوند. سیستم‌های عملیاتی دسته‌های بزرگی از داده‌ها را در چندین سرور ارائه می‌کنند و شامل ورودی‌هایی مانند موجودی، داده‌های مشتری و خرید می‌شوند. سیستم‌های تحلیلی پیچیده‌تر از همتایان عملیاتی خود هستند و می‌توانند تجزیه‌وتحلیل داده‌های پیچیده را مدیریت کرده و بینش تصمیم‌گیری را برای کسب‌وکارها فراهم کنند. این سیستم‌ها اغلب در فرآیندها و زیرساخت‌های موجود برای به حداکثر رساندن جمع‌آوری و استفاده از داده‌ها ادغام می‌شوند. صرف‌نظر از اینکه داده چگونه طبقه‌بندی می‌شود، داده‌ها همه‌جا هستند. تلفن‌ها، کارت‌های اعتباری، برنامه‌های کاربردی نرم‌افزاری، وسایل نقلیه، سوابق، وب‌سایت‌ها و غیره در دنیای ما قادر به انتقال حجم وسیعی از داده‌ها هستند و این اطلاعات فوق‌العاده ارزشمند است. تجزیه‌وتحلیل داده‌های بزرگ تقریباً در هر صنعتی برای شناسایی الگوها و روندها، پاسخ به سؤالات، به دست آوردن بینش در مورد مشتریان و مقابله با مشکلات پیچیده استفاده می‌شود. شرکت‌ها و سازمان‌ها از اطلاعات به دلایل متعددی مانند رشد کسب‌وکار خود، درک تصمیمات مشتری، افزایش تحقیقات، انجام پیش‌بینی‌ها و هدف قرار دادن مخاطبان کلیدی برای تبلیغات استفاده می‌کنند. در دوره آموزش big data نحوه استفاده از این فن‌آوری در قالب مثال‌های متعدد موردبررسی قرار خواهد گرفت. در اینجا چند نمونه از صنایعی که انقلاب کلان داده در حال حاضر در حال انجام است آورده شده است: صنایع مالی و بیمه از داده‌های بزرگ و تجزیه‌وتحلیل پیش‌بینی‌کننده برای کشف تقلب، ارزیابی ریسک، رتبه‌بندی اعتبار، خدمات کارگزاری و غیره استفاده می‌کنند. مؤسسات مالی همچنین از داده‌های بزرگ برای تقویت تلاش‌های امنیت سایبری خود و شخصی‌سازی تصمیمات مالی برای مشتریان استفاده می‌کنند. بیمارستان‌ها، محققان و شرکت‌های داروسازی راه‌حل‌های کلان داده را برای بهبود و پیشرفت مراقبت‌های بهداشتی اتخاذ می‌کنند. با دسترسی به حجم وسیعی از داده‌های بیماران و جمعیت، مراقبت‌های بهداشتی درمان‌ها را بهبود می‌بخشد، تحقیقات مؤثرتری در مورد بیماری‌هایی مانند سرطان و آلزایمر انجام می‌دهد، داروهای جدید تولید می‌کند و بینش‌های مهمی در مورد الگوهای سلامت جمعیت به دست می‌آورد. اگر تا به حال از Netflix ،Hulu یا هر سرویس پخش ویدیوی دیگری استفاده کرده‌اید که توصیه‌هایی را ارائه می‌دهد، شما با کاربرد کلان داده سر سرگرمی روبه‌رو بوده‌اید. شرکت‌های رسانه‌ای، عادت‌های خواندن، تماشا و گوش دادن کاربران را تجزیه‌وتحلیل می‌کنند تا تجربیات فردی ایجاد کنند. نتفلیکس حتی از مجموعه داده‌های گرافیکی، عناوین و رنگ‌ها برای تصمیم‌گیری در مورد ترجیحات مشتری استفاده می‌کند. از بذرهای مهندسی گرفته تا پیش‌بینی عملکرد محصول با دقت شگفت‌انگیز، داده‌های بزرگ و اتوماسیون به‌سرعت صنعت کشاورزی را بهبود می‌بخشد. با هجوم داده‌ها در دو دهه اخیر، اطلاعات در بسیاری از کشورها بیشتر از مواد غذایی است و محققان و دانشمندان را به استفاده از داده‌های بزرگ برای مقابله با گرسنگی و سوءتغذیه سوق داده است. همراه با حوزه‌های بالا، تجزیه‌وتحلیل داده‌های بزرگ تقریباً در هر صنعتی به‌صورت گسترده استفاده می‌شود تا نحوه عملکرد کسب‌وکارها در مقیاس مدرن را تغییر دهد. همچنین می‌توانید کاربرد داده‌های بزرگ را در زمینه‌های تبلیغات و بازاریابی، تجارت، تجارت الکترونیک و خرده‌فروشی، آموزش، فناوری اینترنت اشیا، سیستم‌های کنترلی، ورزش و سایر موارد پیدا کنید. درک کلان داده به معنای انجام برخی تحلیل‌های سنگین بوده و اینجا جایی است که ابزارهای کلان داده وارد می‌شوند. ابزارهای کلان داده می‌توانند بر مجموعه‌های کلان داده نظارت کنند و الگوها را در مقیاس توزیع‌شده و در زمان واقعی شناسایی کرده و در زمان، پول و صرفه‌جویی زیادی صرفه‌جویی کنند. در دوره آموزش big data مکتب خونه ما با مهم‌ترین این ابزارهای big data آشنا خواهیم شد و نحوه کار با آن‌ها را خواهیم آموخت. در اینجا تعداد انگشت‌شماری از ابزارهای کلان داده محبوب آورده شده است که امروزه در صنایع مورداستفاده قرار می‌گیرند. کتابخانه نرم‌افزار Apache Hadoop، یک چارچوب پرکاربرد منبع باز داده‌های بزرگ، امکان پردازش توزیع‌شده مجموعه‌های داده بزرگ را در عملیات‌های تحقیقاتی و تولیدی فراهم می‌کند و از شیوه توابع map reduce بهره می‌برد. Apache Hadoop برای استفاده در هزاران سرور محاسباتی مقیاس‌پذیر است و از معماری‌های Advanced RISC Machine (ARM) و زمان اجرا جاوا 11 پشتیبانی می‌کند. در دوره آموزش big data کار با این ابزار و نحوه استفاده از آن پوشش داده‌شده است. آپاچی Spark یک موتور تجزیه‌وتحلیل منبع باز است که برای پردازش مجموعه داده‌های مقیاس بزرگ در ماشین‌ها یا خوشه‌های تک گره استفاده می‌شود. این نرم‌افزار پردازش مقیاس‌پذیر و یکپارچه را ارائه می‌دهد که قادر به اجرای مهندسی داده، علم داده و عملیات یادگیری ماشین در جاوا، پایتون، R، اسکالا یا  sql server است. در دوره آموزش big data نحوه کار با آپاچی اسپارک به‌عنوان یک ابزار مهم کلان داده آموزش داده خواهد شد. سیستم محاسباتی منبع باز Apache Storm که قادر به پردازش بیش از یک میلیون تاپل در ثانیه در هر گره است، در پردازش داده‌های توزیع شده و بدون ساختار در زمان واقعی تخصص دارد. Apache Storm قادر به ادغام با فن‌آوری‌های از پیش موجود صف‌بندی و پایگاه داده است و همچنین می‌تواند با هر زبان برنامه‌نویسی استفاده شود. مجموعه MongoDB Atlas با طرحی انعطاف‌پذیر و مقیاس‌پذیر، بانک‌های اطلاعاتی چند ابری را فراهم می‌کند که می‌تواند مقادیر زیادی از داده‌های توزیع‌شده را ذخیره، پرس‌وجو و تجزیه‌وتحلیل کند. این نرم‌افزار توزیع داده‌ها را در AWS، Azure و Google Cloud و همچنین رمزگذاری داده‌ها با مدیریت کامل، تجزیه‌وتحلیل پیشرفته و دریاچه‌های داده را ارائه می‌دهد. آپاچی کاساندرا یک پایگاه داده منبع باز است که برای مدیریت داده‌های توزیع شده در چندین مرکز داده و محیط‌های ابری ترکیبی طراحی‌شده است. Apache Cassandra مقاوم در برابر خطا و مقیاس‌پذیر، قابلیت‌های پارتیشن‌بندی، تکرار و تنظیم سازگاری را برای مجموعه داده‌های ساختاریافته یا بدون ساختار در مقیاس بزرگ فراهم می‌کند. اگر به فکر یادگیری مفاهیم کلان داده یا بیگ دیتا هستید و دوست دارید در این صنعت به‌روز باشید و به‌روز بمانید، هم‌اکنون با ثبت‌نام در دوره آموزش بیگ دیتا اولین و مهم‌ترین قدم خود را در این زمینه بردارید. آشنایی با Hadoop: 1 - آشنایی با Hadoop آشنایی با HBase و کاربرد‌های آن: 1 - آشنایی با HBase و کاربرد های آن
درباره دوره: آپاچی کافکا یک پلتفرم توزیع‌شده برای استریم داده‌ها است که به سرعت به یکی از محبوب‌ترین فناوری‌های کلان داده تبدیل شده است. کافکا به سازمان‌ها کمک می‌کند تا داده‌ها را از منابع مختلف جمع‌آوری کنند، آنها را پردازش کنند و به سرعت به آنها دسترسی داشته باشند. این دوره آموزشی به شما کمک می‌کند تا مفاهیم و کاربردهای کافکا را به‌طور کامل بیاموزید. معرفی کافکا: 1 - آپاچی کافکا در 5 دقیقه 2 - اهداف دوره 3 - درباره مدرس تئوری کافکا: 1 - تاپیک‌ها، پارتیشن‌ها و آفست‌ها 2 - Producers و کلیدهای پیام 3 - Consumers و سریال‌زدایی 4 - گروه‌ها و آفست‌های Consumers 5 - بروکرها و تاپیک‌ها 6 - Topic Replication 7 - تایید Producer و ماندگاری تاپیک 8 - Zookeeper 9 - پروتکل‌های KRaft در کافکا - حذف Zookeeper 10 - خلاصه تئوری راه‌اندازی کافکا: 1 - شروع کافکا و ترتیب سخنرانی‌ها 2 - راه‌اندازی کافکا با Conduktor - مالتی پلتفرم 3 - Mac OS X - دانلود و راه‌اندازی کافکا در Path 4 - Mac OS X - راه‌اندازی Zookeeper و کافکا 5 - Mac OS X - استفاده از brew 6 - لینوکس - دانلود کافکا و راه‌اندازی Path 7 - لینوکس - راه‌اندازی Zookeeper و کافکا 8 - Windows WSL2 - دانلود کافکا و راه‌اندازی Path 9 - Windows WSL2 - راه‌اندازی Zookeeper و کافکا 10 - Windows WSL2 - برطرف کردن مشکلات 11 - Windows non-WSL2 - راه‌اندازی Zookeeper و کافکا راه‌اندازی کافکا بدون Zookeeper: 1 - Mac OS X - راه‌اندازی کافکا در KRaft mode 2 - لینوکس - راه‌اندازی کافکا در KRaft mode 3 - Windows WSL2 - راه‌اندازی کافکا KRaft mode راهنمای CLI (رابط خط فرمان): 1 - معرفی CLI 2 - تاپیک‌های کافکا CLI 3 - Kafka Console Producer CLI 4 - Kfaka Console Consumer CLI 5 - Kafka Consumer در گروه 6 - Kafka Consumer Groups CLI 7 - ریست کردن آفست‌ها رابط کاربری کافکا: 1 - Conduktor - دمو راهنمای برنامه‌نویسی جاوا در کافکا: 1 - لیست کافکا در SDK 2 - ایجاد پروژه کافکا 3 - Producer جاوا 4 - Java Producer Callbacks 5 - Producer جاوا با کلیدها 6 - Consumer جاوا 7 - Consumer جاوا - خاموش شدن مطبوع 8 - Consumer جاوا در گروه Consumer 9 - Cooperative Rebalance افزایشی Consumer جاوا و عضویت گروه Static 10 - Java Consumer Incremental Cooperative Rebalance - تمرین 11 - رفتار کامیت آفست خودکار Consumer جاوا 12 - برنامه‌نویسی - آموزش‌های پیشرفته پروژه‌های واقعی کافکا: 1 - بررسی پروژه‌های واقعی کافکا Producer کافکا ویکی مدیا و پیکربندی پیشرفته Producer: 1 - راه‌اندازی پروژه Producer ویکی مدیا 2 - پیاده‌سازی پروژه Producer ویکی مدیا 3 - اجرای Producer ویکی مدیا 4 - Producer ویکی مدیا - معرفی پیکربندی Producer 5 - بررسی عمیق تاییدات Producer 6 - تلاش‌های Producer 7 - تنظیمات ایمن Produce کافکا 8 - Producer ویکی مدیا - پیاده‌سازی ایمن Producer 9 - فشرده‌سازی پیام کافکا 10 - تنظیمات linger.ms و batch.size در Producer 11 - Producer ویکی مدیا - پیاده‌سازی توان عملیاتی بالا 12 - پارتیشنر پیشفرض Producer و پارتیشنر Sticky 13 - پیشرفته - max.block.ms و buffer.memory OpenSearch Consumer و پیکربندی‌های پیشرفته Consumer: 1 - OpenSearch Consumer - بررسی پروژه 2 - OpenSearch Consumer - راه‌اندازی پروژه 3 - راه‌اندازی OpenSearch در داکر 4 - راه‌اندازی OpenSearch در کلود 5 - راهنمای OpenSearch 6 - پیاده‌سازی OpenSearch Consumer - بخش اول 7 - پیاده‌سازی OpenSearch Consumer - بخش دوم 8 - سمنتیک‌های تحویل Consumer 9 - پیاده‌سازی OpenSearch Consumer (Idempotence)- بخش سوم 10 - استراتژی‌های کامیت آفست‌های Consumer 11 - پیاده‌سازی OpenSearch Consumer (سمنتیک‌های تحویل)- بخش چهارم 12 - پیاده‌سازی OpenSearch Consumer (دسته‌بندی داده)- بخش پنجم 13 - رفتار ریست آفست Consumer 14 - پیاده‌سازی OpenSearch Consumer (نمایش مجدد داده)- بخش ششم 15 - Consumer Internal Threads 16 - واکشی Consumer Replica - معرفی Rack Awareness APIهای توسعه‌یافته کافکا برای توسعه‌دهندگان: 1 - APIهای توسعه یافته کافکا - بررسی 2 - معرفی Kafka Connect 3 - بخش عملی Kafka Connect Wikimedia و ElasticSearch 4 - معرفی Kafka Streams 5 - بخش عملی Kafka Streams 6 - معرفی Kafka Schema Registry 7 - بخش عملی Kafka Schema Registry 8 - از چه Kafka APIای باید استفاد کنم؟ بینش‌های دنیای واقعی و مطالعات موردی (Big Data و Fast Data): 1 - انتخاب تعداد پارتیشن و فاکتور Replication 2 - کنوانسیون نام‌گذاری تاپیک‌های کافکا 3 - مطالعه موردی - MovieFlix 4 - مطالعه موردی - GetTaxi 5 - مطالعه موردی - MySocialMedia 6 - مطالعه موردی - MyBank 7 - مطالعه موردی - هضم کلان داده‌ها 8 - مطالعه موردی - لاگ کردن و تجمیع متریک‌ها کافکا در سازمان برای مدیران: 1 - بررسی معماری سطح بالا برای راه‌اندازی کلاستر کافکا 2 - نظارت و عملیات کافکا 3 - امنیت کافکا 4 - مالتی کلاستر و MirrorMaker کافکا 5 - Listenerهای تبلیغاتی: کافکا کلاینت و پروتکل ارتباطی سرور پیکربندی‌های پیشرفته تاپیک‌ها: 1 - تغییر پیکربندی تاپیک 2 - سگمنت‌ها و ایندکس‌ها 3 - سیاست‌های پاکسازی لاگ 4 - حذف پاکسازی لاگ 5 - تئوری تراکم لاگ 6 - تمرین تراکم لاگ 7 - Unclean Leader Election 8 - پیام‌های بزرگ در کافکا گام‌های بعدی: 1 - موضوع بعدی 2 - تشکر
درباره دوره: پایگاه داده‌ها (دادگان یا بانک اطّلاعاتی) به مجموعه‌ای از اطّلاعات با ساختار منظم و سامانمند گفته می‌شود. پایگاه‌های داده‌ها معمولاً در قالبی که برای دستگاه‌ها و رایانه‌ها قابل خواندن و دسترسی باشد ذخیره می‌شوند. البته چنین شیوه ذخیره‌سازی اطلاعات تنها روش موجود نیست و شیوه‌های دیگری مانند ذخیره‌سازی ساده در پرونده‌ها نیز استفاده می‌گردد. آنچه ذخیره‌سازی داده‌ها در پایگاه‌های داده‌ها را مؤثر می‌سازد وجود یک ساختار مفهومی برای ذخیره‌سازی و روابط بین داده‌ها است. پایگاه داده در اصل مجموعه‌ای سازمان یافته از اطلاعات است.این واژه از دانش رایانه سرچشمه می‌گیرد، اما کاربرد وسیع و عمومی نیز دارد، این وسعت به اندازه‌ای است که مرکز اروپایی پایگاه داده (که تعاریف خردمندانه‌ای برای پایگاه داده ایجاد می‌کند) شامل تعاریف غیر الکترونیکی برای پایگاه داده می‌باشد. در این نوشتار به کاربردهای تکنیکی برای این اصطلاح محدود می‌شود. یک تعریف ممکن این است که: پایگاه داده مجموعه‌ای از رکوردهای ذخیره شده در رایانه با یک روش سیستماتیک (اصولی) مثل یک برنامه رایانه‌ای است که می‌تواند به سؤالات کاربر پاسخ دهد. برای ذخیره و بازیابی بهتر، هر رکورد معمولاً به صورت مجموعه‌ای از اجزای داده‌ای یا رویدادها سازماندهی می‌گردد. بخش‌های بازیابی شده در هر پرسش به اطلاعاتی تبدیل می‌شود که برای اتخاذ یک تصمیم کاربرد دارد. برنامه رایانه‌ای که برای مدیریت و پرسش و پاسخ بین پایگاه‌های داده‌ای استفاده می‌شود را مدیر سیستم پایگاه داده‌ای یا به‌اختصار (DBMS) می‌نامیم. خصوصیات و طراحی سیستم‌های پایگاه داده‌ای در علم اطلاعات مطالعه می‌شود. برای یادگیری بیشتر در این زمینه می‌توانید، دوره‌های آموزش پایگاه داده را مشاهده کنید. فیلم های آموزشی: 1 - جلسه اول - مقدمه 2 - جلسه دوم - مقدمه 3 - جلسه سوم - ادامه مقدمه 4 - جلسه چهارم - مدل سازی معنایی داده ها 5 - جلسه پنجم - ادامه مدل سازی معنایی داده ها 6 - جلسه ششم - ادامه مدل سازی معنایی داده ها 7 - جلسه هفتم - ادامه مدل سازی معنایی داده ها 8 - جلسه هشتم - جمع بندی مدلسازی داده ، مبانی طراحی منطقی 9 - جلسه نهم - ادامه طراحی منطقی 10 - جلسه دهم - ادامه طراحی منطقی ، مقدمات پیاده سازی و SQL 11 - جلسه یازدهم - ادامه مقدمات پیاده سازی و SQL 12 - جلسه دوازدهم - ادامه مقدمات پیاده سازی و SQL 13 - جلسه سیزدهم - معماری پایگاه داده 14 - جلسه چهاردهم - ادامه معماری پایگاه داده 15 - جلسه پانزدهم - ادامه معماری پایگاه داده ، مقدمه ای بر مدل داده رابطه ای 16 - جلسه شانزدهم - ادامه مدل داده رابطه ای 17 - جلسه هفدهم - ادامه مدل داده رابطه ای 18 - جلسه هیجدهم - ادامه مدل داده رابطه ای 19 - جلسه نوزدهم - عملیات در پایگاه داده رابطه ای(جبر رابطه ای) 20 - جلسه بیستم - ادامه عملیات در پایگاه داده رابطه ای(جبر رابطه ای) 21 - جلسه بیست و یکم - مثال هایی از حساب و جبر رابطه ای 22 - جلسه بیست و دوم - طراحی پایگاه داده رابطه ای(روش بالا و پایین) 23 - جلسه بیست و سوم - طراحی پایگاه داده رابطه ای(ادامه طراحی بالا به پایین-تئوری وابستگی) 24 - جلسه بیست و چهارم - طراحی پایگاه داده رابطه ای(سطوح نرمال 1NF تا 3NF) 25 - جلسه بیست و پنجم - طراحی پایگاه داده رابطه ای(سطح نرمال BCNF) 26 - جلسه بیست و ششم - طراحی پایگاه داده رابطه ای (فرم 5NFو6NF) 27 - جلسه بیست و هفتم - طراحی پایگاه داده رابطه ای (سطح نرمال 5NFو6NF)
نظرات شما

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *