Sending applications for this position is currently not working. Try again later.

(Junior) Data Engineer (f/m/d) - Augsburg or remote

Permanent employee, Full-time · Augsburg

Read job description in:
Dein neuer Job.

Um Dateneinblicke zu gewinnen, analysiert unsere künstliche Intelligenz Tausende von Tera-Bytes an Daten. Als Data Engineer arbeitest Du direkt am Herzstück unseres KI-Unternehmens: den zugrunde liegenden Daten. Dabei liest Du verschiedene Datentypen ein, kombinierst und verfeinerst sie. Mit Deiner Erfahrung und Deinen Skills im Large-Data-Engineering bietest Du unseren Data Scientists die bestmögliche Ausgangsbasis für deren Analysen.


credium_data_channels
Deine Tech Skills.
Bachelor-Abschluss oder höher in Informatik, Statistik, Physik, Mathematik oder eine gleichwertige Kombination aus Arbeit und Erfahrung anstelle eines formalen Abschlusses. Im Detail:

  • Ausgeprägte mathematische Fähigkeiten und Erfahrung im Entwurf und Einsatz von End-to-End-Pipelines für Geodaten
  • Fähigkeit zum schnellen Prototyping und zur 'Fail fast'-Iteration, um Probleme von hoher technischer Komplexität und Größenordnung zu lösen
  • 3+ Jahre Entwicklungserfahrung im Aufbau von effizienten, groß angelegten (Big) Data-Lösungen, einschließlich Datenbanken (SQL/No-SQL) und ETL/Datenpipelines unter Verwendung von Cloud-Diensten (z.B. während angewandter Projekte an der Universität, als Freiberufler oder bei einem Unternehmen)
  • 3+ Jahre Erfahrung mit Azure Big Data Stack (Data Lake, Spark, Hadoop) und verteilter Verarbeitung wie Apache Spark, Azure Data Factory, Azure Automation, oder vergleichbar
  • Architektur, Aufbau und Wartung von End-to-End-Datensystemen/Pipes mit hohem Durchsatz und deren unterstützenden Diensten
  • Entwurf von sicheren, testbaren und modularen Datensystemen, insbesondere in Python, sowie deren unterstützende Infrastruktur (Shell-Skripte, Job Scheduler, Message Queues usw.)
  • Arbeiten mit verteilter Systemarchitektur
  • Einbinden von Datenverarbeitungs- und Workflow-Management-Tools in das Pipeline-Design
  • Verwendung von Profiling-Tools, Debugging-Protokollen, Leistungsmetriken und anderen Datenquellen, um Verbesserungen auf Code- und Anwendungsebene vorzunehmen
  • Entwickelung für kontinuierliche Integration und automatisierte Einsätze
  • Verwendung einer Vielzahl von Datenspeichern, einschließlich Data Warehouses, RDBMS, In-Memory-Caches und durchsuchbaren Dokumenten-DBs
  • Umgang mit großen Datensätzen unter Verwendung von Frameworks wie CGAL, GDAL, PDAL, Geopandas, Boost.Geometry oder ähnlichen
  • Kenntnisse über Projektionen, Koordinatensysteme, Georeferenzierung sind von Vorteil
Gründe bei credium zu arbeiten.
Genieße den Spirit einer inspirierenden Start-up-Atmosphäre. Mit dem Folgenden kannst Du rechnen:
  • Arbeiten in einem vielfältigen Team von hochmotivierten Kolleginnen und Kollegen
  • Flexible Arbeitsbedingungen (Arbeitszeiten, Home Office, etc.)
  • Neu renoviertes Büro im Herzen Augsburgs mit Indoor Garden und ergonomisch gestalteten Arbeitsplätzen (z.B. höhenverstellbare Schreibtische)
  • Kaffee-Flat im Büro
  • Wettbewerbsfähiges Gehalt
Über uns
credium ist ein KI-Startup, das die Trends der Nachhaltigkeit und der Digitalisierung durch die Veredelung von Open-Data mit künstlicher Intelligenz verbindet. So schafft credium aktuelle, zuverlässige und vor allem flächendeckende Gebäudedaten als On-Demand-Service.
credium_dataviz_german
Your new job.

For building data insights, our artificial intelligence analyzes thousands of tera-bytes of data. As a Data Engineer, you will work directly at the heart of an AI company: its underlying data. Thereby, you will ingest, combine and refine different data types (as indicated in the image on the right). With your experience and skillset in large-scale data engineering, you enable our data scientists to have the best possible starting point for their analysis.


credium_data_channels
Your tech skills.
Bachelor's degree or higher in Computer Science, Statistics, Physics, Mathematics or an equivalent combination of work and experience instead of a formal degree. In more detail:

  • Strong mathematical skills and experience designing and deploying end-to-end geospatial pipelines
  • Capable of quick prototyping and rapid iteration to 'fail fast' while solving problems of high technical complexity  and scale
  • 3+ years development experience in building efficient large-scale (Big) data solutions, including databases (SQL/No-SQL) and ETL / Data pipelines using cloud services (e.g., during applied projects at university, as a freelancer, or with a  corporate)
  • 3+ year experience with Azure Big Data stack (Data Lake, Spark, Hadoop) and distributed processing like Apache Spark, Azure Data Factory, Azure Automation, or equivalent
  • Architecting, building, and maintaining  end-to-end, high-throughput data systems/pipes and their supporting services
  • Designing data systems that are secure, testable, and modular, particularly in Python, as well as their support  infrastructure (shell scripts, job schedulers, message queues, etc.)
  • Working with distributed systems architecture
  • Incorporating data processing and workflow management tools into pipeline design
  • Using profiling tools, debugging logs,  performance metrics, and other data sources to make code- and application-level improvements
  • Developing for continuous integration and automated deployments
  • Utilizing a variety of data stores, including data warehouses, RDBMS, in-memory caches, and searchable  document DBs
  • Wrangling large-scale data sets using  frameworks such as CGAL, GDAL, PDAL, Geopandas, Boost.Geometry or similar
  • Knowledge about projections, coordinate systems, georeferencing is beneficial
Benefits of working with credium.
Enjoy the spirit of working in an inspiring start-up atmosphere. You can count on the following points:
  • Working in a diverse team of highly motivated colleagues 
  • Flexible working settings (working hours, home office, etc.)
  • Newly renovated office in the heart of Augsburg with an indoor garden and ergonomically designed workplaces (e.g., height-adjustable desks)
  • Coffee-Flat in the office
  • Competitive salary
About us
credium is an AI-startup focused on building data insights. We combine the trends of sustainability and digitization by refining open data with AI. This way credium creates up-to-date, reliable, and, above all, nationwide building information as an on-demand service.

credium_dataviz_german
Your application!
We appreciate your interest in credium. Please fill in the following short form. Should you have any difficulties in uploading your files, please contact us by mail at join@credium.de

Please upload your CV, and optionally include other documents (in total max. 20 MB).

Click to select multiple files or use drag-and-drop
Click to select multiple files or use drag-and-drop
Click to select multiple files or use drag-and-drop
Click to select multiple files or use drag-and-drop

Uploading document. Please wait.