開発基盤部会 Blog

開発基盤部会 Blog >> 記事詳細

2021/02/03

某弊部会のスコープ図(スタック&コラボ図)の更新

Tweet ThisSend to Facebook | by nishino
 最近、更新が滞っていましたが、某弊部会のスコープ図(スタック&コラボ図)を更新しましたので、久々にブログの更新をしました。

 以下は、前回の投稿(DX系施策の説明回)中の動画で話していた事(≒ 某弊部会のスコープ(スタック&コラボ))を、ちょっと、文字列的に書き起こしたモノになりますので、興味があったら、読んでみて下さい。

<v1:基幹系>

 昨今、基幹系のRDBMSアプリケーション開発に必要な技術は枯れてきているので、v1の方に対する新規の機能追加の予定はありません(v1のサポート自体は、引き続き継続します)。

 ただし、既存のアプリケーションをDockerやK8sへの対応については、リサーチと機能追加をして行く予定です。また、K8sのマニフェストや、Helm Charts、Rancher Chartsなどを使ってデプロイする方法などについても、調査を行っていく予定です(これは、v2.5に位置付けられる)。

<v2:Web系>

 そして、Web系のSAML2, OAuth2 / OIDCの認証基盤とFrontendも2016 - 2020年のリサーチと機能追加で大方、やれるようになってきています。

<v3:DX系>

 故に、2021年以降はDX系という事で、以降の主戦場は、v3:DX系(IoT, BD, AI/BI)のリサーチと機能追加になって行きます。

<IoT>

 IoTでは、Node-REDを使用してPoC等がされるケースも多いようですが、最近はRaspberry Pi上で動作するLinux用のOSであるRasbian(Raspberry Pi OS)上でもDockerが利用可能になってきているようです。また、DockerでコンテナをBuildし、Docker HubにRegister、Docker ComposeでUPする事も可能の様です。

 

 ...という事で、先ずは認証基盤に実装されたIoT用の認証フローを使用して、IoT DeviceやIoT Edge上のDockerアプリケーションを認証させるという事をやってみようと考えています。

<BD>

 BD(ビッグデータ)は、昨今、基盤のメインストリームが、HadoopからSparkに移っているそうです。Hadoopがストレージのデータを分散処理するのに対し、Sparkはメモリにロードされたデータを分散処理します。Sparkは、「ITインフラテクノロジーAWARD 2015」でDockerに次ぐ準グランプリにもなっているプロダクトで、調べると、なかなか優れたソフトウェアとなっています。

 例えば、メモリに読み込まれたデータに対するSpark SQLの処理要求は、オプティマイザによって分析され自動的に、Sparkのクラスタノードに分散されます。そして、バッチ処理以外にも、構造化ストリーミング処理を分散処理できるようです。また、処理は、Java, Scalaで実装しますが、言語バインディングによって、Python, RやC#などでの実装も可能になっています。

 また、Sparkとよく組み合わせられるプロダクトに、Kafkaという分散メッセージキューがあります。Kafka+Sparkは大掛かりな処理なので、使用しないケースも多いと思いますが、ビッグデータを対象とするデータ・パイプラインで要求されるケースは増えていくと思います。

<AI/BI>

 AIについては、今後コモディティ化が進んで行くモノと思います。故に、基本的には利用するダケのケースが増えていくと思いますが、独自のAIを開発が必要になるようなケースも増えていく可能性があるので、コチラについても必要に応じて、取り組むか否かを検討する予定です。

<ユースケース分析>

 以前、コチラにも書きましたが、これからは、技術だけではなく、ビジネス面についても並行して、リサーチしていこうと考えています。
09:00 | 投票する | 投票数(0) | コメント(0)