検索条件
この条件の案件数:2

Sparkのフリーランス求人・案件一覧

1 - 30/件 全2件

面談1回
リモートOK

【Java】流通向けアプリケーション開発のフリーランス求人・案件

65~77万円/月額
業務委託(フリーランス)

案件の内容

天王町 ※リモートワーク中心 最初は出社 ・データ分析基盤構築およびアプリケーション開発(Java,Scala,Spark) ・AWS上でのjavaバックエンド開発 【備考】・指示された作業をするよりも、自ら調査、開発が得意な方     ・色々とやるテーマなので新規スキルに対しても意識高く自習や      興味をもって対応いただける方     ・アプリも基盤もやることに抵抗感ない方

求めるスキル

    ・Javaを使ったバッチ処理の設計、開発の経験     ・AWS使っての開発経験(数年ほど)

面談1回
リモートOK

【Azure】分析領域の次期システム開発支援 のフリーランス求人・案件

100万円/月額
業務委託(フリーランス)

案件の内容

クライアントの内製開発チームは技術深耕へのモチベーションも高く、「ギークであること」をモットーに Azure系のサービスを中心に積極的なキャッチアップと技術検証に取り組まれています。 今回は、次期システムの開発支援メンバーを募集します。 同内製開発チームは製造IoT系のシステムを開発しています。 このシステムの分析領域に関しては、今後、Microsoft Fabric等の先進的なサービスを活用したアーキテクチャが構想されています。 製造IoT基盤分析領域の次期システム開発支援として、下記をご担当いただきます。 ・Azureサービスを用いたシステム構築、開発

求めるスキル

・Azureを用いたシステム構築スキル ・Azureサービスの調査スキル

1 - 30/件 全2件

Sparkのフリーランス求人・案件について

Apache Sparkは、大規模データ処理を可能にするクラスターコンピューティングフレームワークで、分散データ処理や機械学習などの様々なタスクに使用されます。以下は、Sparkが提供する主な機能とできることです: 分散データ処理: Sparkは分散データ処理をサポートし、複数のノードでデータを処理することで大規模なデータセットに対する高速な処理が可能です。 RDD(Resilient Distributed Datasets): SparkはRDDと呼ばれる不変の分散データ構造を使用し、データのパーティショニングや分散処理を容易にします。 Spark SQL: Spark SQLは、構造化データの処理を行うためのモジュールで、SQLクエリを使用してデータにアクセスできます。 Spark Streaming: Spark Streamingはリアルタイムデータ処理をサポートし、ストリーミングデータに対する高性能なバッチ処理が可能です。 MLlib(Machine Learning Library): SparkにはMLlibと呼ばれる機械学習ライブラリが組み込まれており、分類、回帰、クラスタリング、次元削減などの機械学習アルゴリズムが提供されています。 GraphX: GraphXはグラフ処理のためのライブラリで、大規模なグラフデータの分析や処理を行うことができます。 SparkR: SparkRはR言語との統合を提供し、データの探索、変換、分析などをRを使用して行えます。 Spark MLflow: MLflowは、機械学習のライフサイクルを管理するためのオープンソースのプロジェクトで、Spark MLlibと統合されています。 データソースのサポート: Sparkはさまざまなデータソースとの統合が可能で、Hadoop Distributed File System(HDFS)、Apache Hive、Apache HBase、Cassandra、JDBC、Parquet、Avroなどに対応しています。 柔軟なAPI: SparkはScala、Java、Python、Rなどのプログラミング言語をサポートしており、利用者が選択した言語で開発ができます。 コミュニティとサポート: Sparkは広範で活発なコミュニティを有しており、ドキュメンテーションやサポートが充実しています。 Apache Sparkはこれらの特徴により、ビッグデータ処理や機械学習の分野で幅広いアプリケーションに利用されています。