2014年12月26日金曜日

【unity C#】Prefab生成時に名前の後ろにつく(clone)を消す方法

UnityでPrefabをInstantiateすると自動的に名前の後ろに(Clone)がつきます。
今回こまったのが他のスクリプトからオブジェクト名を使って指定しているため(Clone)がついていると名前が違うため指定できません。

それではC#での(Clone)を消す方法を紹介します。

using UnityEngine;
using System.Collections;

public class nametest : MonoBehaviour {
public GameObject target1;
void Start()
{
GameObject newTarget1 = (GameObject)Instantiate(target1);
newTarget1.name = target1.name;
}
void Update () {

}
}


あとはInspectorでtarget1にPrefabをセットしたらOKです。
javascriptでの書き方はググればすぐ出てくるのでそちらをどうぞ。


参考サイト
 http://answers.unity3d.com/questions/28114/remove-clone-from-instantiated-gameobjects-name.html





2014年12月14日日曜日

カメ○メ波が出せるようになったぜ!

子供の頃のごっこ遊び。
カメ○メ波出しまくってた(つもり)



でもふと現実に戻ると何も出ない。
あんなに気を練り込んだのに。



これからは違う。
出せる!!!出せるぜ!




左半分は術者の動きの映像、
右半分は術者が顔に付けているスマートフォンで表示される映像。
動画前半はエネルギー弾出してる。映像よりも発射音重視の技。

圧巻は0:20からの映像である。
術者が腕を振り下ろすと同時に稲妻がほとばしる!
最後は必殺技でドラゴンを消し飛ばす!

技を出すのに必要なのは、Androidスマートフォンと
Android Wear搭載のリストバンドデバイス、
そしてmeleap製のアプリ。
あと気合い。

使用端末:Android Wear(Samsung gear live)
        Android Smart Phone(Xperia Z3)
開発環境:Android Studio, Unity

Wearの加速度センサ値を基に独自アルゴリズムを使用した。
術者の動きを事前に登録しておき、リアルタイムのモーション判定を実施している。
登録する動きは何でもおっけー。現時点では3パターンのモーションを認識する仕様。

※)顔に付けてるスマートフォンから伸びるケーブルは、
  右半分のスマートフォン画面動画を取るためで他の処理は何もしていません。

次は動き回りながら技出せるようにするよ!
ほんじゃーね!

2014年12月9日火曜日

Android Studio 0.9.9へのアップデートに伴うエラー

Android Studioをアップデートするとこのようなエラーが出たので解決方法を載せておきます。


Error:The project is using an unsupported version of the Android Gradle plug-in (0.12.2). The recommended version is 1.0.0-rc2.
<a href="fixGradleElements">Fix plugin version and re-import project</a>

Error:(16, 0) Gradle DSL method not found: 'runProguard()'
Possible causes:<ul><li>The project 'PopSomeGotSome_20141202' may be using a version of Gradle that does not contain the method.
<a href="openGradleSettings">Gradle settings</a></li><li>The build file may be missing a Gradle plugin.
<a href="apply.gradle.plugin">Apply Gradle plugin</a></li>



どうやら runProguard というものがないらしい。グーグルで調べてみると出てきました。
build.gradle 内にある runProguard を minifyEnabled に変更するとエラーが解決するとのこと。


 buildTypes {
        release {
            runProguard false ←をminifyEnabled falseに変更
            proguardFiles getDefaultProguardFile('proguard-android.txt'), 'proguard-rules.pro'
        }
    }

build.gradleの場所は画像を参照してください。
wearのアプリも作っている場合は両方とも変更が必要です。
最後にSync Project with Gradle Filesをクリックするとエラーが消えました。
アップデートすると今まで動いていたものが動かなくなるというのはやめてほしいですね。




2014年11月23日日曜日

攻殻機動隊の世界はどうやって実現するのか



「攻殻機動隊」と言えば日本を代表するSF作品です。
作品の中では電脳化、義体化、人工知能、ゴーストハックなど様々な未来的技術が出てきます。
最近、その攻殻機動隊の世界を実現化していこうというプロジェクトが発足されました。
https://www.bandaivisual.co.jp/koukaku-special/realize/index.html
そのオープニングイベントみたいなものが開催されていたので、そこでの話をふまえ「攻殻機動隊の実現」についてまとめてみます。


電脳化
攻殻機動隊ではマイクロチップを使っていますが、実際にはマイクロチップの開発は相当時間がかかりそうです。
脳の動きをデジタル化するというテーマにおいては現在、脳波のセンサリングが最も進んでいますが、脳波は非常にノイズが多いので、複雑で正確なデータを取ることは今のところできていません。
一方で、脳に直接電極をつなぐことができれば、もっといろんなことができるだろうと言われています。その開発が進めばマトリックスにも出てくるような世界が実現できそうです。
ただ、その実験対象となる患者(脳に直接電極を接続する必要がある人)は非常に少なく、開発はあまり進んでいないようです。

ではどうすればいいのか。
現実的なやり方としては、体の挙動を細かくセンシングすることで脳の動きを捉えるということです。
人間は無意識に眼球が動いたり、心拍数が上下したり、貧乏ゆすりをしたりします。
そのような動きをウェアラブルなどでセンシングすることである程度脳の動きを把握することができるのです。
直接脳をハッキングしなくても「意識すること無く意思(無意識も含む)を伝える」ということであればウェアラブルデバイスでもある程度可能なのです。

義体
攻殻機動隊の中では「義体」がよくでてきます。
要はサイボーグですね。
草薙素子は脳と脊髄以外全て義体化しています。
よく考えるとすごいことですよね。
内蔵も筋肉も骨も義体というのはどんな感覚なんでしょうか。
自分が何なのか分からなくなりそうです。
逆に言えば、人間はどこまでも「拡張」、「変態」できるわけです。
常識的な「肉体」から離脱し、違うものに変化できるわけですね。
「自分の体以外のものにコネクトし、ハックする」という意味で、義体化は電脳化とも似ていると言えます。
ロボットの駆動部分を直接自身の体に接続するかしないかの違いですね。

では、どのようにして実現するのでしょうか。
直接肉体に接続する例で言えば、義手・義足のように装着するパターン、ロボットを着るように装着するパターンがあります。
サイバーダインのロボットなどは後者ですね。
一方で脳移植はもちろん、臓器移植などの「移植系」は現状かなり難しいらしいです。

他にも、例えば「他人の目を盗む」にはウェアラブルカメラとoculusがあれば実現はできます。
これを進化させれば、テレイグジスタンスでロボットに乗り移り、あたかも自分の体のように操作することができます。
この場合、人間対ロボットの関係は必ずしも1:1と限りません。
1体のロボットの目や体を複数人が共有して互いに干渉し合うということもあり得ます。
動ける人が動けるときにロボットに入り込んで作業するということも考えられます。

まとめ
人間の神経や脳に直接機械を接続するのはまだまだ先になりそうです。
ただ、ウェアラブル技術を使うことで「脳と肉体をインターネットに自然に接続する」ということはできます。
ウェアラブルと言っても、ヘッドマウントディスプレイやリストバンドタイプのものだけではなく、固さ・つかみ心地・衝撃などのフィードバックを伝えるデバイスも重要になってきます。
いくつかのデバイスがそろうことで自然な接続ができるようになるのです。
その意味で、ウェアラブルにはまだまだ可能性がありそうです。

google glassはどこまでいけるのか

ここ2年ほど注目されて来たgoogle glassですが、その普及には難航しているようです。

シリコンバレーでgoogle glassをかけている人が減ったという話も聞きますし、以下のように悲観的にみる記事も多く出ています。

デベロッパーが離れ、Google Glassは第2のセグウェイになりつつある

音沙汰がなくなった「Google Glass」--不安視されるグーグル製ウェアラブルの未来

普及の問題となっているのは、ファッション性、プライバシー侵害、マナー違反の撮影、バッテリー、音声認識の精度などです。

google glassを使ったことの無い人は「ARのデバイス」というイメージを持っていることが多いと思いますが、そもそもの話、AR専門家から言わせるとgoogle glassはAR表示ができるデバイスではありません。
実際にgoogle glassを使ってみると分かるのですが、左上に小さなウィンドウが浮かんでいるだけなので、実際のモノにかぶせてARを出すこともできませんし、わざわざ「見上げる」必要があるのです。
そのため、日常のシーンに完全にとけ込んだ情報表示ができないのです。
ARという点で言えば、実際のモノの上に情報表示ができるスマートフォンの方が適しています。

では、どんなアプリケーションが適しているのでしょうか。
google glassでは、目の前の文字を翻訳する、スマホを取り出さずにカメラ撮影するなど、既に様々な使い方があります。
中でも利用シーンに落とし込むとしたら、「作業中に適切な情報表示をする」という使い方が最適です。
手が濡れている、両手が埋まっている、という状況でスマートフォンは取り出せません。
また、リアルタイムに情報を表示しておきたい場合、常に視界にディスプレイが入った方がいいでしょう。
その意味で、BtoBの法人向けに出していくのは可能性があると思うのです。
実際に、現在様々な企業で実験が行われています。

ヘッドマウントディスプレイが日常にとけ込むのは、まだまだ先になるでしょう。
デバイスの進化、文化の浸透という意味であと5年は待つ必要があると思います。

ただ、倉庫で荷物の仕分けをするとか、機械を修理するなどの限られたシーンで使うには役に立つかもしれません。

2014年11月5日水曜日

目の健康


目が痛いです。前に調べたところどうやらブルーライトとかいうのが悪さをしているらしい。
このブログを見ている方は一日のほとんどをパソコンやスマホとにらめっこしていると思います。

そこで今回は私が使用している対策アプリを紹介します!
  
   
  パソコン用
   f.lux
    https://justgetflux.com/
         オレンジ色のブルーライトカットフィルターを起動
    

  スマホ用
   BlueLightProtect
         https://play.google.com/store/apps/details?id=
    jp.kazupinklady.bluelightprotect&hl=ja
    3種類の色から選べるブルーライトカットフィルターを起動
 
       Screen Filter
         https://play.google.com/store/apps/details?id=com.haxor&hl=ja
    画面の暗さを調節するアプリ



寝る前に真っ暗な中でスマホを触る私にとってこれらのアプリは必需品です。
今使っているスマホの明るさを最小にしてもまだ明るいのでScreen Filterはとても役立っています。




2014年11月2日日曜日

DIGITAL CONTENT EXPOレポート

DIGITAL CONTENT EXPOに行ってきました!

この展示会は最先端技術をエンタメ分野で使っているプロダクト・研究が多く、めちゃくちゃ面白いです。

今年は去年よりも展示数が増え、かなり盛り上がっている様子でした。
OcuFes開発者会も同時開催していたのでoculus界隈の方々も多かったようです。
http://www.ocufes.jp/2014/09/971/

では、気になった展示をいくつか紹介していきます。
まずはoculus系から。

まずは入口にあったこのブランコ。
VRでスカイダイビングを体験できるというものです。
Hashilusの手妻師さんが作ったプロダクトです。
ocufesを見ていても思うのですが、oculusコンテンツはこのように大型化しているケースが多いですね。
ゲームというよりも体験型コンテンツです。
海外でもこのような事例はありますが、日本の方がこの流れは多いと思われます。
ゲーセンやテーマパークに入ってきそうなプロダクトですね。
実際にHashilusはハウステンボスに入ってます。




続いて、これはoculusで綱渡りを体験できるというもの。
彼には高所を綱渡りしている風景が見えています。
だいぶフラフラしていて危ない感じでした(笑)。




これは腰に装着したカメラの映像をoculusに流し、子ども目線になれるというもの。
カメラにも駆動装置がついていて、oculusと同じ向きに動いてくれます。
よく作ったな!と感じる一品。


続いて同じ3Dでも偏光メガネ+プロジェクターで立体視するもの。
お医者さんになりきり、目の前の女の子に聴診器を当てるというコンテンツです。
聴診器を当てると胸の鼓動が聞こえてきます。
完成度も高く、かなり面白い体験でした。

続いて、触覚系の研究。
超音波で実際に映像に触れている感覚になるという技術です。
かなり多くの人が並んでいて50分待ちでした。
http://www.hapis.k.u-tokyo.ac.jp/?page_id=447

音波で物体を浮遊させるという研究。
小さなものしか浮遊させられないですが、魔法のほうな体験です。
これは非常に面白い。
http://wired.jp/2014/01/07/whoa-watch-scientists-control-levitating-beads-with-sound-waves/

高速カメラで手の形を認識し、絶対にじゃんけんに負けないという機械


書かれた文字を認識し、エフェクトを出す黒板

HMDを使って二階から目薬をさすという体験


プロジェクターで顔に落書き


脳波を拾って、興奮すると光る角


スケルトニクス。


このように、エンタメ要素の強い体験型コンテンツが集まっていました。
全体で見るとVR系の数が多く、他には触覚デバイス、ロボット系、lotが目立ってましたね。
次回も楽しみです。

http://meleap.com/hado/