ネイン開発メンバーブログ

サヨナラ、スクリーン。ヒアラブルサービスを開発している株式会社ネインの、開発ブログです

開発ブログ始めました

開発ブログ始めました

こんにちは、ネイン代表兼CEOの山本です。こちらで、ネインの開発にまつわる情報発信をしていきたいと思います。

ネインはまだ小規模な会社なので、CEOの山本も毎日コーディング作業をしていまして、技術的な部分についてもかなり突っ込んで見ている状況です。

ネインで開発しているもの

f:id:ken-nain:20190802125921j:plain

Zeeny TWS

ネインでは、Zeenyというヒアラブルデバイスと連携するアプリの開発、Zeeny Proという業務用ヒアラブルIoTサービス、Yvというイヤフォン向けアプリライセンスサービス、の3本の事業に対応する開発をしています。

開発要素としては、組み込みファームウェア開発、iOS/Androidアプリ開発クラウドサーバーの開発で、私はフルスタックですが、他メンバーは専門領域に根ざした開発をしています。

得意なのがイヤフォン周りに関する開発で、ネインはQualcomm社のExtension Partnerとして、BluetoothイヤフォンのSoCに絡む開発を得意としています。

開発してきたこと

元々ネインはスマートウォッチスタートアップで、約5年かけて、現在はヒアラブルスタートアップとして成長しています。したがってウェアラブルを活用したユーザーエクスペリエンスに関する試作は多く手掛けてきました。

2015年

2014年当時はSwiftが出始めた頃で、Swift、Watch OSの開発、Android Wearの開発をやり。その絡みでスマートウォッチスタートアップの開発のサポートをスタートしたため、BLEの通信周りのアプリのドライバー開発、Unityを使ったクロスプラットフォーム開発をやっていました。

f:id:ken-nain:20190802130326p:plain

Nain

並行してロボットとウェアラブルの関係についても模索しており、PepperをAndroid Wearを使って操作する、といったことで、スマートフォンを取り出ささないユーザーエクスペリエンス、という点について模索していました。

その中で、Nainというサービスを開発し、人がスマホを取り出さずにどう繋がるか、という点をテーマに、今自分が何をしているか、というのを自動共有するアプリを開発していました。その際には、Facebookに買収されたDBサービス、を使ったり、この頃から出始めたFabricを使い始めてアプリ開発をしていました。ここでは、ネイティブ開発で、Swift、Javaベースでの開発です。

f:id:ken-nain:20190802130229p:plain

Nain

人が何をしているか、というのを把握するためにActivitiMonitoringや、GeofenceなどのAPIを、スマホ、スマートウォッチ側を組み合わせて実装しており、サービスの見た目としては面白かったのですが、ちょっとストーカーアプリっぽくて気持ちが悪い、という点があったので徐々にフェードアウトしていきました。

2016年

1年間事業を進めた2015年末頃に、もっと家の環境と人間がシームレスでつながることができないか、と考えてビーコン活用を考え始めました。

いくつかサービス考え、冷蔵庫の側によったら冷蔵庫が語りかける様なものとか、玄関に入ったらそれを知らせてくれたりとか、フィジカルに曲をタッチすると音楽を再生紙てくれたりなど。BLEのRSSIのどういったレンジでどう反応させるかなど、色々学べたタイミングです。

その当時、ひょんなところから、こういったプッシュの情報って音で聞けた方がよくない?ということから始まったのが、APlayであり、Zeeny。ヒアラブルデバイスです。

気づくと、アップル、ソニー、サムソンなどスマートウォッチを手掛けている会社は軒並みヒアラブルも手掛け始めてきて、みんな同じ感覚でスマートウォッチを経過することで、音の大切さにきづいたタイミングなのかも、と考えていました。

急に考え始めたのが2月で、2月には深センにいて、工場と話始めていました。実はその当時企画していたのが、Bose Framesの様なグラス型デバイスで、そこまで作りきれるパートナーを探しきれなかったりとか、キャッシュフローも潤沢ではなかったので、最小限の価値あるプロダクト開発として、Bluetoothイヤフォンを選択しました。

当時驚いたのが、2000円前後のBluetoothイヤフォンの質が急激に高まってきたタイミングで、それもあってこれは活用できるな、と思って飛び込んだという背景があります。

この開発として、アプリの方はスマートウォッチ絡みのBLEの技術資産を活用でき、アプリとしてはスムーズに立ち上がっていきました。苦労したのは、ファームウェア開発で、試作機としてラズパイも使っていましたが、本格的な製品開発となるとQualcommのSoCの開発スキルが必要になってくるため、開発ボードを買い、開発経験を積んでいきました。

当時、ここまでイヤフォンにスマートな機能を載せようとしていたのは、ソニーBose等の大手や、Bragi、Doppler Labs等だったと思いますが、あまり注目されない中、根幹のソフトを作っていたのが2016年。

さらに当時からヒアラブルの先には何があるか、と考えていたので、当時9軸センサーの試作機を作って顔の動きを捉えて、音声ARナビをするデモの開発をしたり。

当時、キックスターターであったOpen BCIというプロジェクトに出資して、BCI機器を購入し、ヒアラブル、ウェアラブル機器から脳波を取得する開発を進めていました。

f:id:ken-nain:20190801180851j:plain

BCI

ちょうど、受託開発の一環として、TensorFlowを使って物体認識をして、人を区別するなどの開発も行っていたので、脳波と聴いている曲の関連性を学習し、脳波に基づいて選曲をする開発もやっていたので、お金もない中、相当クレイジーな開発をしていたなと。。

2017年

2017年に頑張っていたのは、ヒアラブルのiOS対応です。当時使っていたICはオーディオ向けだったのでBLEをサポートしておらず。BLEサポートするICはそこまで主流ではなかったので、深センの工場もサポートしておらず。

開発を進められる状況まで持ってこれたのが、やっと2017年、というところでした。

続きは、また次回に。