الدورة الافتراضية لـ:Edureka |
تم تصميم تدريب Edureka's PySpark Certification لتزويدك بالمعرفة والمهارات المطلوبة لتصبح مطور Spark ناجحًا باستخدام Python وإعدادك لامتحان Cloudera Hadoop و Spark Developer Certification (CCA175). خلال تدريب PySpark ، ستحصل على فهم متعمق لـ Apache Spark ونظام Spark البيئي ، بما في ذلك Spark RDD و Spark SQL و Spark MLlib و Spark Streaming. ستكتسب أيضًا معرفة شاملة بلغة برمجة Python و HDFS و Sqoop و Flume و Spark GraphX ونظام المراسلة مثل كافكا.
حول دورة PYSPARK عبر الإنترنت
تم تصميم الدورة التدريبية لشهادة PySpark لتزويدك بالمعرفة والمهارات لتصبح مطورًا ناجحًا للبيانات الضخمة والسبارك. سيساعدك هذا التدريب على اجتياز اختبار CCA Spark and Hadoop Developer (CCA175). سوف تفهم أساسيات البيانات الضخمة و Hadoop. سوف تتعلم كيف يتيح Spark معالجة البيانات في الذاكرة ويعمل بشكل أسرع بكثير من Hadoop MapReduce. ستتعرف أيضًا على RDD و Spark SQL للمعالجة المهيكلة وواجهات برمجة التطبيقات المختلفة التي تقدمها Spark مثل Spark Streaming و Spark MLlib. تعد هذه الدورة جزءًا لا يتجزأ من المسار الوظيفي لمطور البيانات الضخمة. سيغطي أيضًا المفاهيم الأساسية مثل التقاط البيانات باستخدام Flume وتحميل البيانات باستخدام Sqoop ونظام المراسلة مثل كافكا وما إلى ذلك.
ما هي أهداف دورة PYSPARK للتدريب عبر الإنترنت؟
تم تصميم Spark Certification Training من قبل خبراء الصناعة لتجعلك مطور Spark معتمدًا. تقدم دورة PySpark: نظرة عامة على البيانات الضخمة و Hadoop ، بما في ذلك HDFS (نظام الملفات الموزعة Hadoop) ، و YARN (مفاوض الموارد الأخرى) معرفة شاملة بالأدوات المختلفة الموجودة في Spark Ecosystem مثل Spark SQL و Spark MlLib و Sqoop و Kafka و Flume و Spark Streaming القدرة على استيعاب البيانات في HDFS ، باستخدام Sqoop و Flume Streaming الحقيقي. الاشتراك في نظام المراسلة مثل كافكا التعرض للعديد من المشاريع القائمة على الصناعة الواقعية التي سيتم تنفيذها باستخدام مشاريع Edureka's CloudLab المتنوعة في طبيعتها والتي تشمل الخدمات المصرفية والاتصالات ووسائل التواصل الاجتماعي ،
مقدمة لحدوث بيانات كبيرة وشرارة. أهداف التعلم: في هذه الوحدة ، ستفهم البيانات الضخمة ، والقيود المفروضة على الحلول الحالية لمشكلة البيانات الضخمة ، وكيف يحل Hadoop مشكلة البيانات الضخمة ، ومكونات نظام Hadoop البيئي ، و Hadoop Architecture ، و HDFS ، و Rack Awareness ، و Replication. سوف تتعلم عن Hadoop Cluster Architecture ، وملفات التكوين المهمة في Hadoop Cluster. ستحصل أيضًا على مقدمة حول Spark ، وسبب استخدامه ، وفهم الفرق بين معالجة الدُفعات والمعالجة في الوقت الفعلي. المواضيع: ما هي البيانات الضخمة؟ سيناريوهات عملاء البيانات الكبيرة قيود وحلول بنية تحليلات البيانات الحالية مع حالة استخدام أوبر كيف يحل Hadoop مشكلة البيانات الضخمة؟ ما هو Hadoop؟ الميزات الرئيسية لنظام Hadoop Hadoop البيئي و HDFS Hadoop Core Components Rack Awareness و YARN Block Replication ومزاياها Hadoop Cluster وهندووب بنيتها: أوضاع الكتلة المختلفة تحليلات البيانات الكبيرة مع المعالجة في الوقت الفعلي والدُفعات لماذا نحتاج إلى شرارة؟ ما هي الشرارة؟ كيف تختلف سبارك عن منافسيها؟ شرر على موقع eBay Spark's على نظام Hadoop البيئي. انقر فوق الزر "الانتقال إلى الدورة التدريبية" لمعرفة المزيد عن edureka! المعالجة في الوقت الحقيقي لماذا تحتاج Spark؟ ما هي الشرارة؟ كيف تختلف سبارك عن منافسيها؟ شرر على موقع eBay Spark's على نظام Hadoop البيئي. انقر فوق الزر "الانتقال إلى الدورة التدريبية" لمعرفة المزيد عن edureka! المعالجة في الوقت الحقيقي لماذا تحتاج Spark؟ ما هي الشرارة؟ كيف تختلف سبارك عن منافسيها؟ شرر على موقع eBay Spark's على نظام Hadoop البيئي. انقر فوق الزر "الانتقال إلى الدورة التدريبية" لمعرفة المزيد عن edureka!
مقدمة لبيثون لأباتشي سبارك. أهداف التعلم: في هذه الوحدة ، ستتعلم أساسيات برمجة Python وتتعرف على أنواع مختلفة من هياكل التسلسل والعمليات ذات الصلة واستخدامها. ستتعلم أيضًا طرقًا مختلفة لفتح الملفات وقراءتها والكتابة فيها. الموضوعات: نظرة عامة على Python التطبيقات المختلفة التي تستخدم قيم Python وأنواعها ومتغيراتها العمليات والتعبيرات عبارات شرطية حلقات وسيطات سطر الأوامر الكتابة على الشاشة ملفات Python وظائف I / O سلاسل الأرقام والعمليات ذات الصلة قوائم العمليات والعمليات ذات الصلة القواميس والعمليات ذات الصلة.
الوظائف والعفو والوحدات في بايثون. أهداف التعلم: في هذه الوحدة ، ستتعلم كيفية إنشاء نصوص Python النصية العامة ، وكيفية التعامل مع الأخطاء / الاستثناءات في التعليمات البرمجية ، وأخيرًا كيفية استخراج / تصفية المحتوى باستخدام التعبيرات العادية. الموضوعات: الدالات الدالة المعلمات المتغيرات العالمية النطاق المتغير وقيم الإرجاع وظائف Lambda مفاهيم موجهة للكائنات وحدات المكتبات القياسية المستخدمة في بيانات استيراد وحدة Python ، حزم مسار التثبيت ، الطرق العملية: الوظائف: بناء الجملة ، الحجج ، وسيطات الكلمات الرئيسية ، قيم الإرجاع - Lambda - أنواع ، بناء الجملة ، خيارات ، مقارنة بالدوال وحزم الإصلاح - الوحدات النمطية وخيارات الاستيراد ومسار النظام احصل على منهج تفصيلي للدورة التدريبية في صندوق الوارد الخاص بك تنزيل المنهج الدراسي
الغوص في أعماق إطار عمل سبارك. أهداف التعلم: في هذه الوحدة ، سوف تفهم بعمق Apache Spark وتتعرف على مكونات Spark المختلفة ، وتقوم ببناء وتشغيل تطبيقات شرارة مختلفة. في النهاية ، ستتعلم كيفية إجراء استيعاب البيانات باستخدام Sqoop. الموضوعات: مكونات Spark وأوضاع نشر Spark للهندسة المعمارية مقدمة إلى PySpark Shell إرسال مهمة PySpark لواجهة مستخدم Spark Web اكتب مهمة PySpark الأولى باستخدام استيعاب بيانات دفتر Jupyter باستخدام تدريب Sqoop: تجميع وتشغيل تطبيق Spark UI على الويب فهم الخصائص المختلفة لـ Spark احصل على منهج مفصل في صندوق الوارد الخاص بك استئناف التنزيل
ستعالج الجلسات التي يقودها المعلم جميع مخاوفك في الوقت الفعلي.
وصول غير محدود إلى مستودع التعلم عبر الإنترنت الخاص بالدورة التدريبية.
قم بتطوير مشروع بمرافقة حية ، بناءً على أي من الحالات التي تمت مشاهدتها
في كل فصل ، سيكون لديك مهام عملية ستساعدك على تطبيق المفاهيم التي يتم تدريسها.
مرحبا، كيف أستطيع مساعدتك؟ هل أنت مهتم بدورة؟ حول أي موضوع؟
أضف تقييمك