الوصف


المسمى الوظيفي: Data Engineer

الشركة: Petrofac

تفاصيل الوظيفة: انضم إلى رحلتنا

تتطلع بتروفاك حاليًا إلى تعيين مهندس بيانات على أساس دائم في الشارقة ، الإمارات العربية المتحدة وأبردين ، المملكة المتحدة.

الذي نفعله
بتروفاك هي مزود خدمة دولي رائد لصناعة الطاقة ، مع مجموعة متنوعة من العملاء بما في ذلك العديد من شركات الطاقة الرائدة في العالم.
نقوم بتصميم وبناء وإدارة وصيانة البنية التحتية لصناعات الطاقة. تغطي خدماتنا الشاملة والمصممة خصيصًا كل مرحلة من مراحل دورة حياة المشروع ومجموعة متنوعة من النماذج التجارية ، مما يمنح عملائنا المرونة التي يحتاجونها.

فرص متساوية

نقوم بتجنيد ومكافأة وتطوير موظفينا على أساس الجدارة بغض النظر عن العرق أو الجنسية أو الدين أو الجنس أو العمر أو التوجه الجنسي أو الحالة الاجتماعية أو الإعاقة. نحن نقدر موظفينا ونعامل كل من يعمل لدى بتروفاك أو معها بإنصاف ودون تمييز.
تسعى بتروفاك جاهدة لتطوير ثقافة متنوعة وشاملة حيث يمكن للجميع المساهمة. نحن نشجع الجميع على التقدم ، وخاصة هؤلاء الأفراد الذين يشكلون جزءًا من المجموعات الممثلة تمثيلا ناقصا. يتم الترحيب أيضًا بالطلبات من المرشحين الذين يرغبون في مناقشة طلبات العمل أو مشاركة الوظائف المرنة.

المهام الأساسية:

  • هندسة وتحديد تدفقات البيانات للبيانات الضخمة / حالات استخدام بحيرة البيانات
  • مسؤول عن تنفيذ مسار بيانات قوي باستخدام Microsoft Stack
  • مسؤول عن إنشاء خطوط أنابيب بيانات قابلة لإعادة الاستخدام وقابلة للتطوير
  • مسؤول عن تطوير ونشر منصات البيانات الجديدة
  • مسؤول عن استخدام خدمات Azure BI لتطوير الأنظمة الأساسية للبيانات الضخمة
  • مسؤول عن إنشاء مكونات قابلة لإعادة الاستخدام للتطوير السريع لمنصة البيانات
  • اختر واستخدم المكتبات التحليلية ولغات البرمجة والأطر المناسبة لكل مهمة
  • إنتاج كود عالي الجودة يسمح لنا بوضع الحلول في الإنتاج
  • كود إعادة البناء في مكتبات قابلة لإعادة الاستخدام وواجهات برمجة التطبيقات والأدوات.
  • العمل عن كثب مع مالكي المنتجات والمهندسين المعماريين لتطوير الأنظمة الأساسية للبيانات Azure
  • تحديد وتصميم وتنفيذ تحسينات العملية الداخلية: أتمتة العمليات اليدوية ، وتحسين تسليم البيانات ، وإعادة تصميم البنية التحتية لزيادة قابلية التوسع.
  • مسؤول عن تقدير حجم الكتلة وحجم النواة والمراقبة واستكشاف الأخطاء وإصلاحها لمجموعة طوب البيانات وخادم التحليل لإنتاج السعة المثلى لحوسبة استيعاب البيانات.
  • نشر خطوط أنابيب CI / CD DevOps عالية الكفاءة وصيانتها عبر بيئات متعددة مثل dev و stg والإنتاج.
  • اتبع بدقة نهج التطوير السريع القائم على سكروم للعمل بناءً على القصص المخصصة.

مهارات اساسيه:

  • درجة البكالوريوس (يفضل الماجستير) في علوم الكمبيوتر أو الهندسة أو أي مجال آخر متعلق بالتكنولوجيا
  • خبرة عملية واسعة في ELT و ETL و SQL ومعالجة البيانات وبرمجة قواعد البيانات
  • فهم مفاهيم وتقنيات البيانات الضخمة مثل Data Lake و MPP وتنسيقات الملفات (avro و parquet) والتقسيم وما إلى ذلك
  • خبرة في لغات البرمجة مثل Scala أو Java أو Python
  • معرفة برمجية شاملة ، مع فهم مبادئ OOP وممارسات الهندسة السحابية
  • خبرة في بناء البيانات في الوقت الحقيقي / الدفعات ، والبنية التحتية لمعالجة الإنتاجية العالية
  • معرفة قوية بتقنيات RDBMS و ETL ومستودعات البيانات
  • التزويد المؤتمت بالكامل وخطوط نشر التطبيقات
  • أتمتة البنية التحتية باستخدام لغة برمجة مثل باش أو بوويرشيل
  • تجربة مع منصة بيانات Azure وعروض المنتجات مثل Azure Data Lake Gen2 و Azure Data Factory و Azure Databricks و Azure Log Analytics و Azure Batch Services و Azure Analysis Services و Event Hub و Azure Functions
  • تجربة مع تقنيات استيعاب البيانات الضخمة ، والتحول ، والمعالجة الدفق / الدُفعات باستخدام Spark ، و Apache Kafka ، و Kafka Connect (Confluent) ، إلخ.
  • قادر على فهم هياكل البيانات المختلفة والأساليب الشائعة في تحويل البيانات
  • إدارة البيانات: النمذجة والتطبيع والتنظيف والصيانة
  • فهم معماريات البيانات ومبادئ تخزين البيانات والقدرة على المشاركة في تصميم وتطوير حلول مستودعات البيانات التقليدية
  • القدرة على العمل مع أدوات ETL مع معرفة قوية بمفاهيم ETL
  • خلفية واسعة في التنقيب عن البيانات والتحليل الإحصائي
  • تركيز قوي على تحقيق النتائج
  • مهارات يمكن إثباتها في الشراكة التجارية ومهارات التأثير
  • مهارات قوية في إدارة المشاريع والقدرة على موازنة الأولويات المتعددة دون فقدان الزخم
  • معرفة شاملة باستخراج البيانات وتحويلها وتحميلها من مصادر مختلفة مثل Oracle و Hadoop HDFS و Flat files و JSON و Avro و Parquet و ORC.
  • خبرة في تحديد وتنفيذ وصيانة استراتيجية البيانات العالمية وبحيرة البيانات.
  • تجربة بناء حلول تصور البيانات قوية ومؤثرة واكتساب الاعتماد
  • خبرة في العمل على متن مصادر البيانات المختلفة باستخدام أحمال في الوقت الفعلي أو تحميل دفعة أو أحمال مجدولة. يمكن أن تكون المصادر في السحابة ، أو في مكان العمل ، أو SQL DB ، أو لا توجد قاعدة بيانات SQL أو قائمة على API
  • خبرة في استخراج البيانات من خلال JSON و ODATA و REST API و WEBSERVICES و XML.
  • خبرة في منصات استيعاب البيانات مثل Apache Sqoop و Apache Flume و Amazon kinesis و Fluent و Logstash وما إلى ذلك.
  • خبرة عملية في استخدام Databricks و Pig و SCALA و HIVE و Azure Data Factory و Python و R
  • خبرة تشغيلية مع تقنيات ومحركات البيانات الكبيرة بما في ذلك بيئات Presto و Spark و Hive و Hadoop
  • خبرة في قواعد البيانات المختلفة بما في ذلك Azure SQL DB و Oracle و MySQL و Cosmos DB و MongoDB
  • خبرة في الدعم والعمل مع فرق متعددة الوظائف في بيئة ديناميكية.

مزايا الشركة:

  • راتب أساسي تنافسي
  • نظام التقاعد – الحياة العادية – 3.5٪ موظف / 7٪ صاحب عمل
  • المملكة المتحدة للرعاية الصحية – أكسا
  • برنامج مساعدة الموظفين (EAP)
  • التأمين الصحي الدائم (PHI)
  • تأمين عن الحوادث الشخصية
  • التأمين على الحياة (3 أضعاف الراتب الأساسي)
  • دورة إلى مخطط العمل
  • شارك خطة الحوافز (SIP)
  • نظام مزايا أسلوب حياة الموظف
  • 30 يومًا بالإضافة إلى استحقاق 3 عطلة عامة
  • بالإضافة إلى أكثر من ذلك بكثير

ملاحظة: يرجى من المرشحين المهتمين تقديم كل من السيرة الذاتية ووثائق التأهيل ذات الصلة وشهادات التدريب عند التقدم لهذا الدور.

إذا تم اختيارك كمرشح محتمل ، فسنتواصل معك.

LI-DG1

معلومة اضافية

المرتب المتوقع::
*احيانا لا يكون متوفرا بناء على رغبة المعلن

العنوان: Sharjah


التقديم للوظيفة

العنوان

وسوم , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,