PyData Tokyoコミュニティーを立ち上げました : 第一回はディープラーニングで大盛況

Photo 2014-10-30 19 34 35

シバタアキラ (@punkphysicist) です。

【本記事はCodeZineへの寄稿記事です】

PyData Tokyoは「Python+Dataを通じて、世界のPyDataエクスパートと繋がれるコミュニティーを作る」ことを目的として設立されました。その達成に向けた活動の一つとして、月1回のペースで勉強会を開催しています。勉強会はゲスト講師による講演+ディスカッションという構成です。2014年10月に開催された第1回勉強会「PyData Tokyo Meetup #1 – Deep Learning」では、非常に活発な議論が行われ、今後の発展が期待できる内容となりました。

 本連載では、勉強会を含む活動を通じてPyData Tokyoが得た「Python+Data」の可能性やナレッジを、読者の方にお届けしていきます。機械学習や大規模データ解析など、幅広いテーマを取り扱っていく予定です。

Pythonとデータがラブラブでアツアツな理由

ここのところ「ビッグデータ」をキーワードにビジネス、サイエンス、エンジニアリングの各方面で大きな変化の予兆が感じられます。データを効率よく分析するためには幅広い技術が必要となり、最終的にインパクトのある示唆を出すためには複雑な問題解決力が求められます。そのため、ここ数年はデータサイエンティストの人材不足が嘆かれています。

PyData Tokyo発足の経緯

日頃エンジニアとして開発をしている方々からもデータ解析分野での進展には多くの関心が集まっているようです。今年9月に行われたPython言語のカンファレンスPyCon JP 2014(CodeZineでもレポートが連載中)でも、「データ」「機械学習」「ログ分析」などをテーマにするチュートリアルや発表などには立ち見まででる大盛況ぶり。打ち上げの席でも、「もっとデータに特化した深い話がしたかった」「来年はPyCon JPにもPyData専門のトラックを作って欲しい」などアツい意見が出ました。

なぜPython?

データの分析に使われるアルゴリズムの研究・開発には、かつてはMatlab、最近ではRが主流でした。これらのツールには数値計算に必要となるライブラリーが充実している一方で、コンピューター言語としての完成度が低く、処理速度が遅く、エンジニアがシステムを開発するために必要となるツールもそろっていないなどの欠点があります。近年複雑なデータ処理技術がよりオンラインサービスの中核に位置づけられるようになるにつれ、Numpy/ScipyやScikit-Learnなどの分析アルゴリズムと、DjangoやPyramidなどのWebシステムフレームワークの両面で発達してきたPythonに白羽の矢が立っています。

「PyData Tokyo」のビジョン

PyData Tokyoはこのような状況を踏まえ、東京を震源にPythonを使ったデータ解析に強い関心を持つ人たちのコミュニティーとして発足しました。大企業・ベンチャー・学会など、幅広い場で活躍しているPythonista(パイソニスタ/Pythonの使い手)の皆さんがバランスよく交流することでお互いを高め合い、最終的には「Python+Dataを通じて、世界のPyDataエクスパートと繋がれるコミュニティーを作る」を目標にしています。

PyDataはアメリカに本家コミュニティーが存在し、折しも11月末にカンファレンスが行われました。そのカンファレンスからのレポートは次回お伝えするとともに、今後本家PyDataを通じてよりインターナショナルな交流を増やしていきたいと思います。

イベントの開催

コミュニティーの立ち上げにあたり、まずは中規模でお互いの顔が見えるコミュニティーでの交流が重要と考えています。月1回のペースで平日夜に勉強会を行い、その中では互いにディスカッションできる大きさを超えず、かつある程度幅のある議論ができるようにしていきます。特に初期は、中級(技術を応用してサービスに使ったなど)、上級(研究のためにライブラリを開発したなど)の方のお話を軸に濃い議論をしていきます。

また3回に1回くらいの割合でハッカソン的な開発イベント(週末)を行い、勉強会で話題になった技術などを使って手を動かすことで学んでいく機会(初級から中級者向け)も設ける予定です。なお、開催場所に関しては渋谷のデンソーアイティーラボラトリさんにご協力いただいています。

・・・続きはCodeZine