top of page
Big Data


Dockerなどのコンテナ技術を活用した、軽量かつ使いやすいデータ分析ツールPachyderm
オープンソースのデータ分析ツールとしてはHadoopが有名であるが、開発から10年を経て、いくつかの問題が明らかになっている。元々クラスタ管理のツールやハッキリとした発展の方向性もなかったため、多くのユーザが自分たちのオリジナルツールを開発し、独自でそれを使っている。また、元々バッチ処理が主な用途と想定されていたため、ストリーミング処理に関してはSparkなどのツールを組み合わせて使う必要がある。こういったツールの組み合わせはユーザによっては大きな負担となっているようだ。 PachydermはDocker、CoreOSなどのコンテナ関連技術を活用することで、軽量かつ容易にデータ分析を可能とするオープンソースソフトウェアだ。Pachydermでは、Pachyderm Pipeline Systems(PPS)という仕組を利用して、Pipelineをつなげることでデータ分析を行うが、これらのPipelineはContainerとして記述されているため、それぞれが独立しており、他への転用やモニタリングも非常に容易だ。データはバージョン管理機能を持つP
神谷 理人
2015年6月11日読了時間: 2分


Hadoop Cluster上のクライアントやゲートウェイノードにインストールすることでデータを動かさずにOLAPが可能となるAtScale
今やどんな会社にとってもデータ収集と解析、そして活用が差別化のためには必須となっている。ただ、データ収集のためのプラットフォームをHadoopなどの低コストなプラットフォームに移すことができたとしても、数10年間同じようなツールを使い続けてきたビジネスユーザたちを違うツールに移行させるのは非常に困難なことだろう。 AtScaleはHadoopプラットフォームとそういったBIツールの間に入り、そのギャップを是正する。企業はHadoopなどの低コストプラットフォームのメリットを享受しながら、既存のノウハウといった資産を活用し、より多くのデータにシームレスにアクセスすることが可能となる。 AtScaleの導入に際してはHadoopのクライアントやゲートウェイノードにインストールするのみ、とのこと。AtScaleにはデザインセンターなどのツールが含まれており、GUIベースで簡単にCubeをデザイン出来るとのことだ。価格はサイトの情報からはわからないが、サイトからトライアルの申し込みをすることも可能だ。
神谷 理人
2015年4月8日読了時間: 1分
Predictive Analyticsで顧客の行動を先読みし、タイムリーにサービスを提供するAltocloud
B2CにおいてもB2Bにおいても顧客の獲得はキーであり、また大変な分野だ。最近ではWebサイトへアクセスするユーザも加速度的に増えているので、どのユーザにどれだけの対応をすればよいのかを判断するのは特に大変になっている。 Altocloudがアドレスするのはこの分野だ。AltocloudはWebサイト上にいる顧客のうちどれが購買につながりそうか、といった分析をPredictive Analyticsによって行い、すばやく必要なアクションを行うことを可能にする。それだけでなく、AltoCloudのプラットフォームを 使うことで顧客に対応するためのその他のチャネル、音声やビデオやチャット機能を埋め込む事もできるため、顧客に対する瞬時のきめ細やかん対応も可能だ。
神谷 理人
2015年3月17日読了時間: 1分
B2Bビジネスで顧客が購買をするタイミングを予測できる、6sense
昨今ではB2Bビジネスでもマーケティングオートメーションが広がりつつあり、見込み顧客を如何にして購買する顧客に育てていくかが重要になってきている。ただ、顧客に対して情報を与えることも重要だが、顧客からの目に見えないシグナルをキャッチしていくこともまた競合に勝利していくために重要なことだ。 そのシグナルをビッグデータテクノロジーを用いて事前にキャッチしようというのが6senseのサービスだ。6senseのプラットフォームはマーケティング向けとセールス向けがあり、マーケティング向けはどの顧客にフォーカスするべきかをアドバイスしてくれる。そして、セールス向けはPredictive Analytics Engineを用いて購買の準備が整ったとおもわれる顧客をピックアップし、提示してくれる。これによって両方のプロセスともにリソースを効率的に活用し、購買確率を高めることができるとのことだ。 価格はサイト上に提示されていないが、既に冒頭のビデオにあるCiscoをはじめとした複数の企業がこれを採用しているとのことだ。
神谷 理人
2015年2月20日読了時間: 1分


データのインテグレーションとバックアップがクラウド上で簡単に。Skyvia
クラウドサービスがかなり安価になり、データ自体の置き場所には困らなくなったものの、そのデータを定期的に処理したり、バックアップをとったりすることは未だに面倒に感じる人も多いだろう。 Skyviaを使うことで、ユーザは一つのコンソール上で大量のデータのインポートや統合、エキスポート、そしてバックアップなどを手動あるいは自動で行うことが可能だ。 50kまでのレコードのインポートとエキスポート、1GBまでのデータのバックアップは無料となっており、それ以上になると月額99ドルや499ドルのプランとなっている。
神谷 理人
2015年2月18日読了時間: 1分
コピーライター殺し?数十億のメッセージの分析結果を元に最適な言葉の組み合わせを作りマーケティングメッセージを自動作成するPersado
Webサイトに集客するためには良いマーケティングメッセージが必須だが、どのような言葉をどのように組み合わせるとよりコンバージョンレートが上がるかについて意識しながら書いている人や組織はそんなに多くないかもしれない。芸術作品のようなメッセージを作ってもそれでどれだけ集客数が増えるかについては不透明だから厄介だ。 しかしながら、 Persado はまさにそういった点にフォーカスしている。Persadoは数十億のマーケティングメッセージごとのコンバージョンレートなどを解析し、その結果にもとづき、自動的に最適なマーケティングメッセージを生成する。 生成するメッセージのパターンは数百万種類。当然業界ごとに最適な言葉が異なるため、そういった点も考慮に入れているようだ。
神谷 理人
2015年1月24日読了時間: 1分
オフラインのPOSも既存マーケティングオートメーションツールもインテグレート。Retailに特化したビッグデータソリューションを提供するRubikloud
リテーラーは今やオフラインもオンラインも含めた様々なチャネルを統合して売上を最大化させることが必要になっている。オムニチャネルなどの取り組みはその一つであるが、様々なツールやサービス、テクノロジーがある中でどれをどのように組み合わせていいかわからないリテーラーも少なくないだろう。 そんなリテーラー企業でもすぐに使えるビッグデータサービスがRubikloudだ。既存のデータベースやPOSシステム、マーケティングオートメーションツールなど、様々なソースからのデータ取り込みが可能だ。また、それらのデータはマシンラーニングを活用して分析されるため、ビッグデータに関する技術的な知識がなくても、コンバージョンレートやマーケティング施策の効果などを測定でき、次に何を行えばいいかといったリコメンデーションを得ることができる。 Rubikloudの使用にあたってはまずPersonal Demoをリクエストすることが必要になるが、リスクフリートライアルを提供するとのことなので、割と安全にお試しすることができるだろう。
神谷 理人
2015年1月20日読了時間: 1分


ラップトップからクラウドまでシームレスに展開。すべてのマシンラーニングを簡単に利用できるプラットフォーム Dato
今年はMachine Learning as a Service(MLaaS)元年といえるかもしれない。また新しいMLaaSスタートアップが登場した。Datoである。こちらは元々GraphLabという名前でグラフ解析を主としていたのだが、$18.5Mの投資を受け、会社名をDatoへと変更し、全てのマシンラーニングを提供することになった。 プラットフォームの使い方は至ってシンプルだ。ホームページからアプリをダウンロードし、対応したマシン上にインストールする。そして実際にPythonのスクリプトを書いて実行する。それだけだ。書くコードも下記のようにシンプルだ。 クリックすると、Quick Start Guideへ。 対応プラットフォームはPython2.7以降が動作するLinuxベースのマシンであればよく、10.8以降のMac OS XやGLIBC2.11以降であればいずれのLinux Distributionでも動作する。当然Windows上でも仮想マシンであれば実行できる。 傾向や類似性、人気度など様々な分析を数行のコードで実施できるという
神谷 理人
2015年1月9日読了時間: 1分
シンプルなサーベイの測定結果から自動分析し、それに応じたアクションを推奨。社員満足度を向上させる TinyPulse
http://vimeo.com/52587746 従業員満足度調査に喜んで入力する人はあまり多くないかもしれない。こういったサーベイはたいてい入力が面倒な割にはその入力によって何が改善されるのか、といった点がわかりにくいため、サーベイに答える側のモチベーションが上がらないからだ。 シアトルのスタートアップ、TinyPulseはこういった問題を解決するサービスを提供する。 TinyPulseが提供するサーベイは、従業員の幸福度や他の従業員の好感度を尋ねる、といった直感的で、短時間で入力が終わるものばかり。これを毎週など定期的に実行する。集計する側からするとそんなシンプルなサーベイでは本当にほしい情報が得られないと思うかもしれない。だが、これらの情報を自動的に分析することによって、どのような傾向かというような情報や、どのような施策を行うべきかといったアドバイスが得られるようだ。料金は15人までの企業で月49ドル、100人までで299ドルとなっている。
神谷 理人
2015年1月1日読了時間: 1分


マシンラーニングをクラウド経由で利用可能な3rdパーティ向けプラットフォーム Scaled inference
大量のデータから傾向や細かな変化を探し出し、意味付けを行うマシンラーニングが流行り始めている。マシンラーニングを行うにはビッグデータのインフラが必要である。これはいくつかの事業者がクラウド経由で提供しているため、今や調達するのがとりわけ困難というわけではない。しかしながら、マシンラーニングを出来る環境にするのはやや困難が伴う。アルゴリズムを考えることの出来るエンジニアが必要だからだ。現在はシリコンバレーでもマシンラーニングができるエンジニアは引く手あまたであり、そういった人材を使いこなして組織の求めるプログラムを作ってもらう、ということは更にハードルが高いことだからだ。 Scaled Inferenceはそんなほとんどの企業にとって待ちわびたサービスを提供するかもしれない。現在までに$13.6Mを調達したこの会社はサードパーティ向けのマシンラーニングプラットフォームを提供する予定だ。提供時期や細かな形態は定かではないが、マシンラーニングによって出来る、パターン認識、アノマリー検知や不正利用検知など様々なことがAPI経由で簡単に利用できるようにな
神谷 理人
2014年12月31日読了時間: 1分


IoT時代には必須!?HadoopのPredictive Analyticsを簡単に、高速に活用可能なプラットフォーム RapidMiner
Hadoopは大量のデータを安価な機器を組み合わせて分析されることができるが、主にバッチ処理に用いられるためストリーミング処理には向かない。そんなHadoopに対する認識は過去のものになるかもしれない。 RapidMinerが提供するプラットフォームを使うことで、ユーザは手元のデータを入力したり、データベースを接続したり、IoTデバイスやゲートウェイからデータを蓄積し、その結果を素早く得ることが出来る。 分析をするにあたって特にプラグラミング言語に関する知識は必要なく、どのようにデータを組み合わせてどういった結果が得たいかを表現したり、事前に定義されたマシンラーニングアルゴリズムなどを適用したりして求める結果を得ることになる。可視化についても既に見やすいテンプレートができているのでそちらを数クリックで適用するだけだ。 利用料金はPersonalで年額999ドル。Professionalで2999ドル。手元のデータをアップロードしてやってみるだけなら無料で行うことができるが、ストリーミング処理などは課金版でしかできない。まずは無料でLook
神谷 理人
2014年12月18日読了時間: 1分


フルマネージドのHadoop as a Serviceを提供するAltiscale
昨今データサイエンスの必要性が叫ばれ、多くの企業がビッグデータの活用を迫られている。しかしながら、データサイエンスのテクニックとインフラ構築のテクニックはやや距離が離れており、特にスタートアップやIT部門が小さい組織ではその両方を持つことは難しいものだ。 AltiscaleはHadoopをクラウドから提供するHadoop as a serviceを展開することによってこの問題を解決しようとしている。Hadoop as a serviceも既に世の中にいくつか出ているが、その中でもフルマネージドサービスを提供するという点が彼らの差別化要素のようだ。
神谷 理人
2014年12月10日読了時間: 1分
データの視覚化だけじゃない。データの意味を理解してレポートを自動作成できるNarrative Science
ビッグデータ関連のスタートアップが次々と出てきた結果、今や大量のデータソースを元に分析を行い、結果を視覚化するということはどんどん簡単になってきている。しかしながらデータを分析し、視覚化されたとしてもそれが意味するところを理解しなければ次のアクションには繋げられないだろう。 そういったギャップを補うのがNarrative Scienceの提唱するNarrative Analyticsだ。Quill™とよばれるAutomated Narrative Generation Platformにデータを突っ込むとAIにより自動的にそのデータを分析。そのデータから読み取れる内容を文章にしてレポートを作成する。レポートの内容はそれぞれのデータの増加率や全体に対する割合、推奨するアクションなど様々だ。 実際に個別のデータに対して利用する場合は直接見積を取るといったことが必要になるが、 現在Google Analyticsのデータを元にレポート作成できるサービスを無料で提供している 。まずはこれで試してみるのも一興だろう。
神谷 理人
2014年11月30日読了時間: 1分
複数のデータソースをクラウド上に簡単に統合 クラウド型ビッグデータウェアハウスのOneFold
既に分析に使うための多くのデータを抱えている企業は多いだろう。それぞれのデータはJSON形式であったとしてもどのデータをどのように取り込んでいくかはまちまちであり、それらを最適に読み込むためのプログラムはエンジニアによって個別に実施されているのが現状だ。ただJSON形式もバージョン変更がたびたびあるため、そのたびにコードを変更するなどの負担が発生することになる。 OneFoldはそういった負担を最小化するクラウド型のビッグデータウェアハウスサービスを提供する。 ユーザはOneFoldを利用することによって、様々なJSON形式のデータをクラウド側に取り込むことが出来る。取り込んだデータは自動的に整形される。それらがたとえ別々のデータソースであったとしても、ユーザはSQL形式でデータを取り込むことが出来るため、大量のデータを負担なく解析するということができるようになる。JSON形式が変更された際にはサービス側でそれを読み取り、再び最適な形に整形してくれるとのことだ。現在はベータを提供中であり、価格などは明らかにされていない。
神谷 理人
2014年11月20日読了時間: 1分
個人投資家は要注目 Web上のファイナンシャルデータを取りまとめ、様々なフォーマットで出力出来るQuandl
数々のオンラインサービスのおかげで、いまや多くの個人投資家が様々な金融商品を売買できるようになっているが、企業におけるトレーダーと比べてまだ不利な面はいくつかある。その一つが取りまとめられた各種の金融データを閲覧出来ない点だ。 しかしながら、その取りまとめられたデータの元の多くは実は無料でほぼリアルタイムにインターネット上で閲覧できることも多い。そこに着目したのがQuandlだ。 Quandlは様々なインターネット上のソースから持ってきてデータをキーワードベースで取りまとめ、それを様々なフォーマットで出力することが出来るサービスだ。REST APIはもちろんのこと、ExcelのAdd-inなども提供しており、かなり簡単に使えるようになっている。下記がExcelのadd-inの使い方だ。 無料で取得できる基本データに加え、リサーチ会社などが提供するデータを有償で取得することもできる。こちらはデータセットあたり月額100ドル程度かかるようだ。
神谷 理人
2014年11月15日読了時間: 1分


Big Dataを駆使してセールスプロセスを分析・効率化するHighSpot
ビッグデータ分析が色々な局面で使われるようになってきているが、Highspotはセールスプロセスに関わるあらゆる行動やコンテンツ、そのアクセス状況などを分析することによって、顧客獲得に向けた支援をするプラットフォームだ。 これらの分析は顧客や営業個人に個別最適化されたものとなっており、それぞれの顧客がどのような状況にいて、どういったアクション、どういった営業用マテリアルが効果的かなどを可視化することができる。 また、プラットフォーム自体はSalesforceなどのCRMやDropboxなどのCloud File Sharingとインテグレーションされているので、必要なアクションをここからワンストップで行うことが可能だ。 価格はドキュメントの数などに制限のあるBasicは無料で、Businessの場合はユーザあたり月々30ドル、Enterpriseは要相談となっている。
神谷 理人
2014年11月8日読了時間: 1分


CloudとDeep Learningを駆使して画像診断治療を変革する Butterfly Network
画像診断・治療は低コストでかつ安全にがんなどの早期発見ができることから現代においては必須のものといえるだろう。ただし、最終的には実際に切開して診てみないとわからないケースはまだまだ多いことも事実だ。 Butterfly NetworkはデバイスとDeep Learning、そしてCloudを組み合わせ、その精度を上げることを目的としている。大量の画像をデータ解析すること自体はどこもやってきたことだが、クラウドの活用により更に大量のデータにアクセスし、画像から特徴を抽出する技術の大本命であるDeep Learningを駆使することでその精度は飛躍的に向上することが期待される。
神谷 理人
2014年11月4日読了時間: 1分


コーディングもデプロイも不要。クラウド上で簡単にHadoopを使える Xplenty
ビッグデータの必要性が叫ばれている昨今だが、実際に中小企業がそれを導入するのはなかなか難しい。大量のサーバ、セットアップ、そして実際の解析にはJavaベースのプログラミングも必要となる。 Xplentyはこういった声に応える、Hadoop as a serviceのプラットフォームだ。 ユーザは申し込むとAWS、 Softlayer、Rackspaceのいずれかの上でXplentyのHadoopを使うことができるようになる。そして一度データを置いたら、あとはGUIを使ってパズルのように様々なブロックを組み合わせるだけでデータの解析が出来る。 価格は使用するクラウドによって異なる。AWSの場合は$99から。フリートライアルも可能だ。
神谷 理人
2014年10月29日読了時間: 1分


オムニチャネルに威力を発揮 B2Cに特化したデジタルマーケティングサービスLytics
オムニチャネルという取り組みが耳目を集めている。様々なチャネルを顧客に提供し、そのチャネル同士を連携させて顧客に対する購買機会と可能性を増加させるという取り組みだ。 ただ、それを効果的に実践するためにはモバイル、メール、Web、SNSなど様々なマーケティングチャネルを統合して管理し、データを分析。その分析結果に合わせてキャンペーンを打つといった作業が必要だ。既存のCRMの多くはそういった機能を備えているものの、機能が多いだけに、設定が難解であったり、高くついたりすることから、導入を躊躇している企業も多いだろう。 Lyticsはそういった企業をターゲットにしている。彼らのサービスはそれらの様々なチャネルを彼らいわくワンクリックで統合出来る上、ビルトインのデータサイエンス技術により相関を分析し、マーケティングキャンペーンなど行うべきアクションを示唆してくれるとのことだ。また、それぞれのアクションと結果の相関も含め、わかりやすく表示してくれる。価格はサイトには記載されていないため、個別にコンタクトが必要だ。
神谷 理人
2014年10月23日読了時間: 1分


一度検索するだけで常に最安値を通知し続けてくれる価格比較サービス Zumur
商品を購入する前に価格を様々なサイトで比較することはよくあることだろう。検索も充実しているので割と簡単に安いサイトを見つけることができるかもしれない。ただ、商品によってはまだ価格があまり下がっていないものもあるだろう。そういった商品の買い時を知るのに、これは役に立つ。 Zumurは価格情報を検索するためのサイトだ。ただし、検索が必要なのは一回だけ。あとはその商品の最安値が更新されるたびに定期的に通知される。商品の検索はかなり細かく定義出来る上、それぞれの商品についての買いどきを統計的に割り出してくれる機能もついている。 現在ベータ期間中であり、利用するためにはsign upして、メールが来るのを待たなければならない。どれだけのサイトが登録されるのかは今の段階では不明だが、ラインナップ次第では商品購入のポータルにもなりえる。
神谷 理人
2014年10月21日読了時間: 1分
bottom of page