NIPPON Cloud Working Group > 報告書 > 会合報告 > 第46回ニッポンクラウドワーキンググループ会合報告

第46回ニッポンクラウドワーキンググループ会合報告


「ディープラーニングを活用し、クラウドビジネスを広げる!」をテーマに、ゲスト講演として株式会社ABEJA Platform Division Architect 菊池さんにご登壇いただき、ニッポンクラウドワーキンググループ第46回会合を開催いたしました。

今回の会合はさくらインターネット株式会社さんに会場をご提供いただき、活気ある会合となりました。
ありがとうございました。
IMG_1418_R
【日 時】2017年9月7日(木)17:00~19:00
【会 場】さくらインターネット株式会社 セミナールーム
【参加者】メンバー、協賛各社および関係者の方々を含めて40名以上

ゲスト講演では菊池さんより、ディープラーニングおよびその活用事例をわかりやすくお話いただくとともに、ディープラーニングを実施する上での注意点などご説明いただきました。
さくらインターネット社からのご紹介ではエバンジェリスト 寺尾さんから、さくらの機械学習インフラ「高火力」サーバーについてご紹介いただきました。

ディープラーニングに触れるとてもよい機会になりました。
ありがとうございました。

 
【司会者のご紹介】
実行委員 渡邉 健太

IMG_1389_R

 

1.開催のご挨拶

副会長 藤田 浩之
IMG_1408_R
みなさま、第46回NCWG会合にお集まりいただき、ありがとうございます。
まず初めに、本日の会場を提供いただきましたさくらインターネットさん、ありがとうございます。
NCWGもほぼ6年が経ち、来月が年内最後の会合となります。
11月には年度報告会を開催いたしますので、是非みなさんご参加ください。

本日の会合では「ディープラーニングを活用し、クラウドビジネスを広げる!」をテーマに、ゲスト講演として株式会社ABEJAの菊池さんにディープラーニングの活用についてわかりやすくご説明いただきます。
またさくらインターネットさんからも機械学習インフラである「さくらの高火力」についてご説明いただきます。

話は変わりますが、我々NCWGではみなさんのきっかけをつかむ場を提供しています。
ぜひ皆さんメンバーさんや協賛さんで積極的に交わっていただき、NCWGをきっかけとしてアライアンスができるよう積極的に活かしてください。

 
2.部会報告
 
サムライクラウド部会
部会長 野元 恒志

IMG_1402_R
年内にまだイベントがあるのでみなさんにお目にかかる機会はあると思いますが、サムライクラウド部会についてご説明します。
サムライクラウド部会の活動の基本的なスタンスは、月1回実施しているCBAさんとの連携部会を中心に行っています。
サムライクラウド自体は、SAMLによるSSOとオープンソーシャルのガジェットを用いた連携をベースにしていますが、それだけではなくDockerや、先月開催されたNCWG支援セミナーでのRancherの話などが話題として盛り上がっています。
同時にアプリケーションを連携させていくにはAPI周りをマッシュアップしていくので、いまの流れではMicroServicesにつないでアプリケーションをつくるスタンスがあります。
次回は9/20 15:00からJPタワーで行い、MicroServicesとその他の色々な細部の技術について話をしたいと思っています。
今後はSAMLのパファーマンスについてやMicroServicesの将来的な実活用について具体的な話をディスカッションしたいと思いますので、みなさんご参加ください。

 
クラウドアプリケーション部会
部会長 尾鷲 彰一

IMG_1400_R
2017年度の活動内容としてはIoT時代のクラウドネットワークを体感するということで、IoTプラットフォーム、LPWAの調査検証、アプリケーションの開発を進めています。
LPWAについては、無線で最大10km飛ぶLoRaという通信規格があります。
前回は8/28に開催しまして、それまでの12回ではセンサーデータをゲートウェイまで飛ばしていましたが、ThingsPeakという海外のクラウドサーバにデータを登録することを行いました。
次回の予定ですが、10/30にこれまでの反省会を実施したいと思います。

 
クラウドビジネス推進部会
部会長 藤田 浩之

IMG_1398_R
具体的な活動としては書籍を題材にクラウドサービスの勉強会を実施しています。
現在は、宮本武蔵の五輪書を教科書として「無双の負けないクラウドビジネスについて思考する」というテーマとしています。
五輪書は「地」「水」「火」「風」「空」と5巻ありますが、これを参加者により深く理解してもらい、その上でクラウドビジネスについてディスカッションすることと、また各社ごとの「五輪書」を発表してもらっています。
次回は10月下旬に開催予定で、クラウドサービス部会と一緒に開催いたしますのでぜひご参加ください。

 
クラウドサービス部会
部会長 小堀 吉伸

IMG_1390_R
クラウドサービス部会では、テクニカルな視点ではなくクラウドをサービスとして捉えています。
なので、わからないから参加できないではなくて、とりあえずサービスを考えるというところから来ていただきたいと思います。
今後は事例だけではなく、書籍だとか学会発表だとかを実施していければと考えており、日々新しいことを進めていきますので、是非みなさまご参加ください。
クラウドサービスの良いもの、悪いものを取り上げていきながら、バッドプラクティスで「こういうことをやると失敗する」ということを取り上げるのも面白いかもしれません。
クラウドサービス部会ではセオドア・レベットの「ホールプロダクト」を使用し、「コアプロダクト」とそれらの周りにある「補完プロダクト」としてみなさまがお持ちのサービスを事例として意見を出し合っています。
NCWGとしては、そこから先に連携という切り口で「補完プロダクト」同士がつながっていったら面白いですし、クラウドサービス部会が主導でビジネスアライアンスができるのかなと考えています。

 
4.ゲスト講演

株式会社ABEJA
Platform Division Architect
菊池 佑太 氏
テーマ:「IoT/BigData/AI時代におけるクラウド型データ解析基盤 ABEJA Platformのご紹介」

IMG_1426_R
ただいまご紹介に預かりました、株式会社ABEJAの菊池と申します。
本日発表する内容は大きく分けて3つあります。
1つ目はディープラーニングの概要と破壊的効果、2つ目としてABEJA Platformという我々のコアビジネスの説明、3つ目としてABEJA Platformでのサービスについて紹介いたします。

まず簡単に自己紹介をいたします。
私は2007年にYahoo株式会社に新卒で入社し、オンライン広告の企画からWeb上での行動履歴の解析などを担当していました。
その後自分でシステム研究開発会社を立ち上げて、機械学習やデータの蓄積基盤などをお客様に提供していました。
2014年にはフリークアウトという会社でインターネット広告に使用するリアルタイムビッティングについてマシンラーニングによる最適化に携わりました。
そして2017年4月に株式会社ABEJAへ入社しています。

次に株式会社ABEJAについて簡単に説明いたします。
設立5年目を迎え、9月から6期目になります。
オフィスは虎ノ門にあり、社員数は50名くらいの会社です。
「自分の技術で世界を変える」という熱い思いを持った、平均年齢が20代後半の若いメンバが多くいます。
事業内容としてはディープラーニングを活用した産業構造の変革を目指しています。

株式会社ABEJAのビジネスの領域は大きく分けて2つあります。
まず1つ目がエンドクライアントの個々のニーズを聞いてその要件に合うようなディープラーニングを定義し、お客様から様々なデータをABEJA Platformに上げていただくことによってモデリングや最適化を提供しています。
2つ目がインストアマーケティングで、実際に店舗を持たれているお客様に対して設置したカメラから動画を吸い上げて、人数や性別、動線などを解析するソリューションを提供しています。

この後は「ディープラーニングとはそもそもどんなものなのか?」ということを説明します。
いままさにIoTデバイスの普及であったり、色々なデータをみなさんもお持ちですが、ソーシャルデータの発展に伴いデータは非常に大きくなっています。
その大きくなったデータをいかに効率的に管理するか、必要なデータを抽出する点がまさにビッグデータであり、その中のひとつのソリューションとして人工知能を利用することでデータの価値を見出すことにつなげるというのが一般的な流れです。

現在は労働人口が非常に減っていっている状況であり、今後はどのようにカバーしていくかがひとつのポイントですが、そういった労働人口の代わりとして人工知能が使えるのではないかと考えています。
例えば製造業のラインでいままでは人が検品作業を実施していましたが、機械での研究開発が行われており、そういったところに人工知能の必要性を感じていただけるのではないかと思います。

簡単に人工知能の概要について説明します。
大きな枠組みとしては人工知能の中に機械学習があり、更にその中にディープラーニングがあるとイメージしてください。
人工知能という言葉が出始めたのは1956年頃で、この頃は簡単な関数やコンパイラなど簡易なものが人工知能と呼ばれていました。
そこからハードウェア、ソフトウェア、プログラミング言語の発展があり、第2次のブームとしてマシンラーニングという言葉が流行り、その中でサポートベクターマシンのような色々な手法が生まれてきました。
そして2012年頃の第3次ブームとして、マシンラーニングの終盤にHadoopのようなビッグデータの解析基盤が出てきて、今まで1台のサーバで解析していた処理を並列分散処理を複数台のマシンで解析するように変わってきました。

[画面に複数の猫と犬が混ざった画像を表示して]
みなさん、いまここに何の画像が表示されているかを答えてください。そうです。猫です。
人間は脳の記憶であったり、過去の経験から犬や猫の写真を画像を見たことがありますが、これがまさにディープラーニングにつながります。
ディープラーニングの基盤としてニューラルネットワークがあり、人間の感覚に近いものです。
マシンラーニングとディープラーニングの一番の違いをかんたんに一言で説明すると、特徴の選択や判別をマシンラーニングは必要としますが、ディープラーニングは必要としません。
マシンラーニングの手法においては、犬と猫の判別をしたいときには、必ず判別したい人が画像の中にある犬の耳や目などの特徴を事前に与えるラベリングが必要になります。
対してディープラーニングとは、特徴の選択をあらかじめ選定しなくとも機械が自動で判別するので、我々がするのはこのニューロネットワークをモデリング化することで、あとはデータから犬か猫かを自動で判別します。

そもそもディープラーニングがいつ注目され始めたかというと2012年の第3次ブームのときであり、イメージネットという大会の中でディープラーニングの手法が注目されました。
この大会では画像判別において精度を競い合うのですが、マシンラーニングと比較してディープラーニングのほうが2倍近く精度が高い結果でした。
また手法が改良されることにより徐々に精度が高くなり、人間が判別するよりもエラー率が低くなってきました。
物体認識はディープラーニングが得意としています。
人間が見落としがちなことも正確に拾うのがいいところで、人間は主観で判断することがありますが、ディープラーニングではまんべんなく物体認識として拾います。

ディープラーニングは難しく思われがちですが、基本的にやっていることはマシンラーニングと変わりません。
どちらも同じようなプロセスを踏みながら、入力されたデータをもとに学習して、最終的に目的をアウトプットするというプロセス自体は変わりありません。

本日の2つ目の説明としてABEJA Platformを説明します。

ABEJA Platformはクラウド上に構築されたインフラだと思っていただいて構いません。
IoTデバイスに対してWebのAPIを公開しており、そこからデータを上げてもらっています。
また上げてもらったデータを解析して、そのアウトプットを各IoTデバイスに取得させています。
つまり、いろいろな既存のデータを持たれているお客様とAPIの連携であったり、他のパッケージングサービスを展開しているお客様とのAPI連携などをひとつのビッグデータとして預かるということです。
このビッグデータを解析して、モデリングを当てはめて何かしらのアウトプットを出していくのですが、新しい取り組みとしてクラウド上で学習したモデルをデバイス側にデプロイする仕組みを作っています。
この仕組は何のために必要なのか?と質問を頂きますが、かんたんに説明すると何かしらのIoTデバイスの方で何かしらを推定するモデルが組み込まれている状態だとします。
こうしたデバイスで更新されないモデルがあると、精度は上がっていきません。
我々は各1台1台のデバイスの情報を吸い上げて、たくさんの情報としてクラウド上で学習して、その学習した新しいモデルをデバイスにデプロイしてあげることでモデルは最新の状態に保たれますし、どんどん精度が上がっていきます。

ABEJA Platformは単純なAIエンジンを売っているということではなく、AIの精度を上げるための様々なファンクションをお客様に提供しています。
ここが難しいところなのですが、AIの精度を上げるということは、データのインプットの量やデータを機械がどのように認識すべきなのか様々なフェーズがあります。
機械が学習しやすいデータであったりとか、効率の良いデータがあるので、我々はその前段のフェーズからお客様にソリューションを提供しています。
AIのエンジンも一度学習するだけでなく、新しいデータを再学習するフローが必要になります。
ABEJA Platformでは、データの入力やサポートをプラットフォームとして提案させていただいており、様々なファンクションを含めたトータルで提供していることが強みになります。

ABEJA Platformの全体概要図ですが、アプリケーションレイヤーとしてABEJA Platform for Retailというパッケージがあります。
様々なお客様にパッケージングを提供させて頂くときにも○○SaaSのように提供させていただき、あとはAPIをお客様に公開し、ABEJA Platformに入力された様々なデータを解析するという流れになっています。
もうひとつはインフラ部分であり、Intel様のCPUやNVIDIA様のGPUをいろいろな用途に対して使い分けをしていただく、まさにIaaSです。

現状はABEJA Platformはエンドユーザ様から直接利用ができない状況です。
一度ABEJAのソリューションにご依頼をいただいて、我々がモデリングを作り、それをABEJA Platformに乗せていくというのが現状のスタイルですが、これを変えようと思っています。

実際にどういう風に将来を描いているかというと、ABEJA Platformのオープン化です。
まずは2017年9月からパートナー企業様にABEJA Platformの機能を公開し、パートナー企業様でモデリングや実装をし、その実装をABEJA Platform上でサイクルを回す予定です。
2018年2月にはABEJA Platformの機能を一般のエンドクライアント様にもフル公開させていただき、自由に使っていただく予定です。

2017年9月に公開するベータ版の利用についてですが、まずABEJAのWebサイトからパートナー企業様の申請フォームがあるので、もし利用を希望される場合にはABEJA Platformのパートナー申請を行ってください。
申請内容は1日で終わる内容なので、簡単にチェックさせていただき連絡いたします。
パートナーに加わっていただくと、有償ですがABEJA Platformのトレーニング権を受けることができます。
そこではディープラーニングの機械的な理論を説明しますし、いかにABEJA Platformをうまく使っていただくかといったところをサポートさせていただきますので、技術的な内容をガリガリ進めていきたい方には一度来ていただくことをおすすめします。

2018年2月には一般公開をさせていただきますが、そのタイミングでは六本木のとある場所、3000人規模が入れるスペースを確保していまして、そこで大きなイベントを開催させていただきます。
イベントの趣旨としてはパートナー様、もしくはエンドクライアント様に対して、直接ABEJAが提供できる事例であったり、ソリューションの内容を事細かく説明させて頂く予定です。

最後にABEJAの軸となっているソリューション、ABEJA Platform for Retailについて説明いたします。
実際にどういうことができるかというと、IoTデバイスとしてカメラを店内に設置します。
実際に人が動く動線解析からこの後にヒートマップと言うものを作成できます。
これを元に店舗の方々はどういうところが交通量が多いのか、もしくはどういったところに注目されるような商品を置くとよいかといったことのひとつの指標としてデータを見ていただきます。
また店舗内の入り口付近にカメラを設置させていただくと、入店者の属性情報がわかり、リアルタイムに解析することができます。

ただこういったリアルタイムの解析は店舗の方々にリアルタイムに情報をお渡しするのではなく、実際は我々がBIのインテリジェンスツールを提供させていただきサマリデータとして、各店舗の店長やエリアマネージャーのような方々にお渡しします。
またツールだと見れないというケースがあり、ABEJAのソリューションを肌で感じていただくためにもスマートフォンのアプリで情報を提供させていただきます。

ABEJAという会社はディープラーニングを活用してイノベーションを起こしていく、世界を変えていくという熱いメッセージを持った会社です。

Q1.音声認識について、AIの応用領域としてはどういうものがあるか
A1.ABEJAは音声認識として実績を持っているわけではありません。実際にそういうことが得意なのはGoogleさんやIBMさんで、Speech to Textのように90%程度の割合でテキストにおこすことが可能です。
GoogleさんやIBMさんは一般的に使われるプラットフォームを目指している会社ですが、ABEJAは個々の要件に合わせたABEJAしかできないことを対象としています。

Q2.事業者がPythonなどでライブラリを使用してディープラーニングを提供するのと、ABEJAを使用してお客様に提供するのと何が違うのか
A2.モデルを作るフェーズについては、汎用的なライブラリであると作りづらいです。AIに関するフレームワークはたくさん出てきており、ノウハウがない方でもPythonなどの知識があれば多少のレベルまでは精度を上げていくことができます。
ただ例えば製造業のお客様であれば我々に求めてくる精度と言うのはほぼ100%に近く、例えば検品作業を人がやっていてほぼ100%近い精度で検知しているものを、機械に置き換えて精度が80%になると意味がありません。
精度を高めていくナレッジメントは、ディープラーニングの理論などを把握している人間でないと厳しいと考えており、ABEJAでは必要なチューニングポイントをメークアップ化して、モデルの精度が上がっていく仕組みを整えています。
まとめると、精度を上げていく作業ではノウハウが必要であり、そのノウハウが必要なポイントを絞ってあげて、それを何かしらのインターフェースとして外部の皆様にご提供し、そこだけチューニングしてもらえれば、それなりに精度が上がっていき、かつ再学習のフェーズでいろいろなデータを蓄積することによって更にAIが賢くなっていくようなエコシステムということになります。

Q3.モデルを作った場合に、評価はABEJAでやられるのか、それともエンドユーザ様でやられるのか
A3.両方のケースがあります。モデルの評価は非常に難しく、評価をする上でも知識がないとつまづいてしまいます。
我々がモデルの評価をどのようにやっているかというと、幾つか方法がありますが、ひとつ大きな手法としてクロスバリデーション(cross validation)があります。
正解がわかっているデータを人工知能にかけるのですが、どこまで学習データを入力するのか、その割合についてもABEJAではシステマチックに回すことができますので、人手をかけません。
またお客様で実証実験をしていただく際には実際に目でみたいと言われるので、実際にデータを解析して目視で確認してもらい精度を体感していただきます。

Q4.モデルを更新していく際に精度が落ちた場合でも更新を続けるか
A4.評価指標が古いモデルに対して、性能劣化がある状態であえて更新はしません。
その判断について現時点では我々のデータサイエンティストが目視で確認していますが、オートメーション化する必要があると思っています。
データがあればあるほど精度があがるという考えは一部正しく一部誤りがあります。すべてのAIにおいてデータを入力していくと精度は上がっていくのですが、特定のラインで飽和状態を迎えます。それ以上のデータは計算のリソースがかかるだけで意味が無いデータになります。
飽和状態のライン見極めやどれだけの量があれば精度が出るかの見極めは非常に難しく、オートメーション化できていません。現在はデータサイエンティストが過去に習得したスキルを使い判別しています。
Q5.ディープラーニングを使用することにより効果が出た、お客様の満足度が高かったなどの事例があれば教えて欲しい。
A5.ディープラーニングが得意とするのは何かしらの最適化です。製造業については人がやっている作業を機械がリプレイスすることによる人件費の削減があります。また配送業では特定の人員の配列として必要な人員数を事前に予測して、そこに対してスケジュールの最適化することによるコスト最適化があります。
満足度指標についてはお客様のKPIや、AIに対する期待感により変化します。

5.さくらインターネット社からのご紹介
「さくらではじめる機械学習のための計算資源」
さくらインターネット株式会社 エバンジェリスト 寺尾英作 氏

IMG_1431_R

前職から3社ほどずっとホスティングの会社で仕事をしています。
さくらインターネットでさくらのことを好きになってもらおうとエバンジェリストとして活動をしています。
もともとインフラエンジニアで小難しい話をしていました。
さくらインターネットは昔からレンタルサーバ事業を行っていました。
長らくユーザーでサーバーが良く落ちるんだよなと思いながら、なぜかさくらに就職しました。

さくらインターネットの簡単な紹介です。
レンタルサーバから始まった会社で、専用サーバーとかサーバー貸しのビジネスです。
2006年にEC2がでてからクラウドや仮想化のサービスがはやり、VPSやさくらのクラウドをはじめました。
今日紹介する高火力とういうサービスは、専用サーバのプランの一つでさくらと契約いただければ、さくらのコントロールパネルから専用サーバー高火力で選択いただければご利用いただけます。
データを集めるのが大事になってきているので、さくらIOとしてサービス提供しています。さくらのクラウドの基盤で動いています。

AIの専門家ではないのですが、簡単にサービス説明させていただきます。
AIやディープラーニングがとても騒がれている理由ですが、前までは、特徴は「犬らしさ」、「猫らしさ」を定義して、マシンラーニングは人間が定義して、コンピュータが判定していました。「特徴を抽出する人間の判断」がボトルネックでしたが、AIを賢くするのにディープラーニングが2012年くらいから注目されてきて、猫らしさ、犬らしさをコンピュータ自身がディープラーニングすることで、コンピュータが賢くなる速度がはやくなっている点が注目されています。

まだコンピュータだけではモデルの正しさは人間が行わないとならないわけですが、これがコンピュータで進むともう一段進化するのかと思います。
一部の判断、データが正しいのか?等は、AIが自動でできるようになってきていますが、このあたりが今後10年、20年の課題です。

AIでは、コンピュータが特徴を自動で判断しますがこの計算リソースが必要で、1回の計算では正しい数値はでないので、何度も何度も計算量が増えていきます。我々のインフラとしてもビジネスが関係していきます。

AI、ディープラーニングの利用は、画像認識、動画の認識等に良く利用されています。
弊社サービスのご利用者の方々もこちらの内容で利用されているケースが多くあります。

なぜ計算量が多く必要なのか?1回の計算で正しいモデルできるまで検証するために何度も何度もやり直す必要があります。
同じ計算が1日で終わるのか、それが6時間で終わるのか、6時間だと同じ計算で1日4回計算できます。

ライバルの会社が1ヶ月で計算できれば、遅いコンピューターだと4ヶ月掛かります。
計算リソースはあればあるほどより高い正解にたどりつきます。なので計算リソースはあればあるほど良いというわけです。

膨大な量のデータIoTとかの活用で新しい価値を生み出します。

高火力展示会に出展したのですが、高火力発電所のシステムですか?と勘違いされました。
さくらの新しいAIですか?とも言われますが違います。

GPUを使った新しい計算資源を提供しているサービスです。

なぜこんなことを始めたのかというと、我々には石狩データセンターがあります。
涼しい気候を利用して低いPUEで1.1を切っています。東京は1.4~1.3です。
エネルギー効率で1を使うのに1.4使うのが東京で、石狩だと1.1以下で利用できます。
GPUを乗せると異様に電気を使うので乗せるせられて3台まで、1ラックに3台しか使えないとコストに合わないので、エネルギー効率の良い石狩を使って展開しています。
新しく、3号棟ができて1900ラック余剰があるので、広いキャパシティで展開しています。

ここ1、2年で引き合いが多くなってきています。
消費電力で500Kw以上、稼動ノードで200以上、GPU1000以上が稼動しています。
かなり国内でも大きな規模の計算リソースです。

実際に計算基盤どこにおきますか?
GPUサーバーを買って会社に置いても、社内では廃熱、騒音、電力の問題があります。
規模が大きくなってデータセンターを借りたとしても、ラックに2~3台しかのりません。
それにラック代、電気代、GPUのサーバーが高価なので毎月15万くらいかかり、計算するだけだとコストが合いません。
となると、どこかから借りますよね。
1台から借りられ、電力の計算、メンテナンスいりません。

でどこで借りましょうか?
1テラクロックスあたりで、さくらが4000円。他社が20000円なので1/4、1/5位の値段です。
スループットはタイタンXで100の数字で、他は40ちょっとのスペックです。

価格の比較としてもさくらのサーバーは安くて性能が高いです。

さくらの高火力の料金プランは専用サーバですが時間貸しモデルもあります。

初期費用無料で2時間利用した場合に最初の1時間無料で、実質1時間の料金で利用できます。
長期利用の月額課金もございます。
長く使うとなると月額課金でコストパフォーマンス良いです。

時間貸しと月額課金でどのくらい使うとお得かというと、6~7ヶ月以上使うと月額課金がお得です。

どんなモデルがあるのか?
タイタンXというGPU乗せたものと267円、テスラーで1時間349円のモデルがあります。
機会学習で使う計算としては、16ビット単精度の計算が多いので、タイタンXの方がコストパフォーマンスが高いモデルとなってます。
物理のCPUとして4コアを乗せています。GPUからCPUにオフロードされるので、GPUが速くてもCPUがボトルネックになるのですが、物理CPUを乗せているところが強みとして評価されています。
メモリも128GB乗せていますので専用サーバの強みです。
10GのNICも乗せているので大容量データ転送も可能です。

月額課金だとGPUの追加ができます。
初期費用も掛からないので、安価に計算資源を利用できます。
原価償却いりませんし、いつでもやめられます。

来年には新しいGPUも出てきますので、レンタルの方が効率が良く電力も含めて効率的です。

時間課金での注意点は専用サーバーなので、サーバー落としても料金は発生します。

ボナンザさんも私達のインフラで動いています。
スーパーコンピューター産総研さんと共同民間受託しています。

128GPUの並列稼動でどこまで早くなるのかを検証しています。
128GPUで100GPUくらいの速度がでていますので、台数増やすと計算はやくなります。

無償トライアルもやっていますのでぜひご利用下さい。
WEBサイトからお申し込みできます。

Q1.高火力コンピューティング敷居が高いですがどのような業種ユーザーが利用していますか?
A1.現時点で計算リソースを活用できる機関の方が多いです。
研究機関や大学さんや機械学習を理解している会社が多いです。
事例としては保険会社で、窓口に来た人の顔とかを認識して感情がマイナスなのかプラスなのかを判断し、窓口のトレーニングに活かしているなどあります。
アイデアを実現できるのか試行錯誤されている会社が多いです。

 
6.会長からの総括
IMG_1393_R
みなさん、お疲れ様でした。
ご講演いただいた菊池さんありがとうございました。
いろいろと知識をお持ちな菊池さんのお話や、ホスティング業界では有名な寺尾さんのAIの話を聞けて大変良かったです。

さくらインターネットさんでの会合開催は、今回が4回目となり、毎回の会場のご提供誠にありがとうございました。

ニッポンクラウドワーキンググループは、この11月で活動開始から7年目となります。それに伴い、11月の冒頭に総会を行い、その後、11月8日に、活動報告及び活動計画の報告会を行います。
今年は、年内12月までの活動予定が決まっていますので、皆さん是非ご参加いただき、クラウドビジネスを広げる場としてご利用ください。

今年度の会合開催を通して、本日お話しいただいた菊池さんの機械学習やAI、次回お話しいただくブロックチェーンなどの裏側では、「クラウド」という考え方やさらに具体的な道具としてのクラウドが普通のことのように実ビジネスの見えないところまで浸透し、普通のこととして存在してきたいると実感しています。

また、ニッポンクラウドワーキンググループの活動支援として、本日会場を提供していただいたさくらインターネットさん他18社のご協賛さんみなさんにも会の活動に積極的に参加いただきながら会を利用いただければと思います。

本日は、誠にありがとうございました。
 

7.懇親会

懇親会も大いに盛り上がり、メンバー・ご協賛の方々との積極的な交流を図ることができました。
非常に有意義な懇親会となりました。ご参加された皆さん、ありがとうございました。

IMG_1438_R

今期スローガンは、「Beyond the Clouds! ムスビ(結)で、実を創る!」です。
今回の会合がご参加いただいたみなさんのクラウドビジネスに繋がり、
実を結ぶ切っ掛けとなれば幸いです。

【NCWG実行委員 報告書作成者】
大澤 武史(株式会社クリエイトラボ)
井口 和彦(株式会社ドヴァ)


12月 2017
月曜日 火曜日 水曜日 木曜日 金曜日 土曜日 日曜日
2017年11月27日 2017年11月28日 2017年11月29日 2017年11月30日 2017年12月1日 2017年12月2日 2017年12月3日
2017年12月4日 2017年12月5日 2017年12月6日 2017年12月7日 2017年12月8日 2017年12月9日 2017年12月10日
2017年12月11日 2017年12月12日 2017年12月13日 2017年12月14日 2017年12月15日

カテゴリー: General実行委員忘年会

2017年12月16日 2017年12月17日
2017年12月18日 2017年12月19日 2017年12月20日 2017年12月21日 2017年12月22日 2017年12月23日 2017年12月24日
2017年12月25日 2017年12月26日 2017年12月27日 2017年12月28日 2017年12月29日 2017年12月30日 2017年12月31日