171019

MakerBot 社が運営している3D データ共有サイト「Thingiverse」に登録して幾つか投稿した。

www.thingiverse.com



以前、モデリング、3Dプリントして、実際に粉を落としてもらったコーヒーステンシルのデータを公開した。
公開してすぐに、幾つか Like がついた。
www.thingiverse.com
また、myminifactory という別の3Dデータ共有サイトの中の人(?)から、うちのサイトにも公開してくれ、というメッセージが届いたので、そっちにも公開しました。
www.myminifactory.com



また、Thingiverse には自分でモデリングしたデータを公開する他にも、
誰かが公開したデータをダウンロードして実際にプリントしたよ!と報告できるような機能もあるので、
そっちも、2つ投稿した。

フレッシュレモンスプレーは、Yuval Dascalu さんという、イスラエルの17歳の学生の作品のようだ。
作ったと投稿したところ、作者の Yuval さんから「Looks awesome! Great print」というコメントがついた。
www.thingiverse.com

こちらは前回の投稿にも書いたが、壊れたイームズチェアを探していたので作った。
www.thingiverse.com



今までは、データをもらうために使っていた Thingiverse に登録し初めて投稿したのだけど、
すごい数の3D データが日々公開されていたり、ちょっとしたものなのに Like がついたり、
とても活発なコミュニティだと知った。

最近の流行りとして、コミュニティデザインだとか、コミュニティが大事とか簡単に言いますけど、
それについて、あっそう、みたいに思っていましたが、Thingiverse のコミュニティは良いなあと思いました。


3D プリンタのコミュニティへの小さな貢献として、
Like をつけたり、君のやつ作ったよとか僕の見てとか、ちょこちょこ投稿したり、
コミュニティに参加していければと思います。





(終わり)

.

171012

大学のイームズチェアを3Dプリンタを使って直したので、その記録と、以前自分で書いたテキストを元にまとめを書いてみようと思います。
http://ah3dprintshop.com/14565


・-・-・-・-・-・


先に完成の写真を載せますが、ロッドの脚の先についている黒いパーツがオリジナルで、ミントグリーンのパーツが今回 3D プリントしたのものです。
このパーツの樹脂が経年劣化等で壊れてしまうということがあるようなので壊れたもの見つけたら直そうと思っていたところ、大学で壊れたイームズチェアを見つけました。
f:id:ysok_na:20171012180326j:plain

脚の先を近くで見るとこんな感じ。
f:id:ysok_na:20171012180112j:plain
f:id:ysok_na:20171012180148j:plain

Thingiverse からデータを拾ってきました。
f:id:ysok_na:20171012180937p:plain
Feet for Vitra chair by D-Byte - Thingiverse
ページ内に作り方についての記述があります。

Instructions
Print in taulman 645 nylon.
I used 0.6 layer hight
100% fill
250C temp

infill、つまり充填率は 100% に設定してあげると良いようです。

3D プリントは大学内の設備の MakerBot Replicator Mini を使い行いました。
PCアプリの makerbot のスライサで、Quality, Infill の設定をしてスライスして、プリント開始します。
4つ同時に出力して、1.5hでした。マシンのコンディションの問題なのか何がわからないですが、フィラメントの切れと悪く、糸を引いていてあまり綺麗に出なかったです(フィラメントは純正のものとのこと)。
f:id:ysok_na:20171012181637j:plain

プリント後にラフトを取り除き、はめてみましたがちょっと入りません。その辺に落ちてた彫刻刀で入り口を少し削ってみると、うまくぴったりはまりました。彫刻刀のようなものがその辺に落ちてたのでラッキーでした。
f:id:ysok_na:20171012182342j:plain

これで完成です。

(僕の予想ですが)、パーツがない状態で長く使われていることによってフレーム自体がゆがんでしまったのか、全てにパーツをつけるとガタガタになりました。


・-・-・-・-・-・


ここまで書いてみて、以前書いたテキストを元にまとめを書いてみます。

小さなおもちゃしか刷れない、大したものは作れないから買うべきではない、ect…
””3Dプリンターは魔法の箱ではない””、というネタを最近いろいろなところで見聞きしますが、個人的には 3D プリンターはそんなにダメダメではないと思っています。

革新的な生産、次世代の製造業だと思って見てしまう人や、そういう風に取り上げてしまうメディアが多かったため、
めちゃめちゃ注目された割に、作るの時間かかるし、意外と自由はきかないし積層した方向には弱いし、そのままプロダクトにはならないよねっていう失望があったように見えます。

なんでもつくれる最強の工場が机の上にきたというイメージではなくて(そもそも大きな工場であってもなんでも作ることなどできないし)、
3D プリンタは、工作や、手で作ることのパワーアップというつもりで、色々な使い方を模索するというのが良いのかなと思っています。

Thingiverse を見ると、attachments, replacement と紹介されてるものが多いのもわかります。


・-・-・-・-・-・


最近、 @takawo さんがとてもうまく3Dプリンタを使っているのを見かけて気になるので載せておきます。
次の引っ越しの時、有孔ボードの壁を作りたいです。

成り行きに任せつつの進捗です

takawo shunsukeさん(@takawo)がシェアした投稿 -

進捗です

takawo shunsukeさん(@takawo)がシェアした投稿 -






おわり



.

171007

様々な局面でokの判断するのは自分じゃなかった制作の例

映像の中で窓枠もある夜空を作る

映像の中で窓枠あっても微妙だし、窓枠は普通に立体で使ってプロジェクションマッピングでいきたい

映像であれば、ソフトは何でも良い(unity or blender

ソフト触りながらいくつかの面で比較してみてblenderで行くことにした

夜空のテイストはどんな感じ(絵本ぽい or シェーダー系)

テイストは星の王子様で

とりあえずデータ作ってレンダリング(平面的過ぎて酷い)

奥行きのために半透明の板をデータの方で作りレンダリング(奥行き感が出た)

プロジェクションマッピングは多分行けそうとわかる

プロジェクタのコード抜き差しで角度位置ずれる問題(コード差しっぱなし可能になり解決)

星は煌めいていて、流れ星が流れるように

煌めきはマテリアルの光の強さで作った(うまくいかず)

星の回転で煌めきの表現に変更(キラッって感じにうまくいった)

20秒の尺で、その間にいくつか流れる流れ星だと、同じところを通る周期が短すぎて萎える

5個の流れ星を作ってそれぞれ2,3秒のクリップに分けて、星の煌めきも含めて細切れのクリップを、塩梅を見ながら配置

ディスプレイとプロジェクタの色味わかんなすぎる問題

現場でプロジェクタで写したフォトショで色指定

夢の中だしたまにUFOとか飛びたい

とりあえずUFO飛ばした(微妙だった)

UFO特有の変な動きや加速度の表現のために、数値の変化の関数を検証し、グラフの傾きを追加


完成



大まかな完成形は指定されていたので、どうやって作れば完成形に近づくのか、色々な試作をしながら進め、また試作してもっと良くなりそうならこっちで勝手に追加しながら進めた。

思ったようにCGが作れない方法どうしよかなと考えることはあっても、完成形をどうしようかなとは考えなくて済むので楽だった気がする。

パズルじゃないけど、完成形に向かって手法を選びながら色々探るのは結構楽しかった気がする。


.

170920

今日、指導教員に、自分で自分のやりたいことを決めろと言われた。
それは別にってところが若干ありつつ、家でネットの記事を見ていて面白いものがあった。


Autodesk University Japan 2017直前!dot by dot 富永 勇亮 &ライゾマティクス 齋藤 精一対談 | ユーザー事例 | Autodesk :: AREA JAPAN

ーーdot by dotさんは本当にいろいろなプロジェクトを手がけられていて。3000本の花が動くインスタレーション「Flower Mirror」から、「進撃の巨人」の関西弁バージョンまで、ものすごくバラエティに富んでいて、一言でまとめるのが難しいくらいですね。

齋藤:そうは言っても、自分たちの中では統一感があるんじゃないですか?

富永:ないんです。僕達は作家集団ではなくて、商業クリエイターなんです。だから頂いたお題に対してどうしようか、と考える。「進撃の巨人」でも大丸のプロジェクトの「Flower Mirror」も、あれが僕らの最適解だったんです。僕達は自分たちが作品を発表するというよりも、完全に職人であるというか代打職人というか、来た球を確実に打つことにしています。弊社のCTOのSaqooshaも凄腕プログラマなんですが、「こういうビジョンを実現したい!」という野望がないんです。でもアイデアを出したら、サクッと作ってくれる。その作りどころの丁寧さとか、海外の論文を片っ端から読んでいて圧倒的に情報量がすごいので、深く掘って適切に打ち返すという強みがあります。

課題や、卒論、卒制を進めたり、あと直近の荒川林の映像の制作のまとめをしたりその中で、気がついたというか、実感したところがあって、
‪僕は、最終的な絵や目標を考えて決定していく作業よりも、
決定しているものをどうやって作るのかという方法や、その目標を達成するための実際の細かな部分の検討していく作業の方が好きなので、
デザイナーや、アーティストにはなれないのだなと思った。


アーティストのスタジオでスタッフとして働いてみたいと思うのは、良くも悪くもそういうところなんだなと思う。(オラファー・エリアソンの映画見ました。ご飯みんなで食べたり、いろんな場所でいろんな実験が進んでいたりとか、スタジオがとても良い感じだった。あと、ライノ使っていた。)


僕は終わらせ方決めるの苦手なので、人が決めた終わらせ方を120パーセントで作れるように努力できる傭兵になれたらと思います。

また個人の制作、自分で決めなきゃいけないときは、実験なども含めて趣味全開でバンバン好きなようにやれば良いと割り切りたってやってしまおうと思いました。




(おわり)




.

170827

アートラボ橋本でやっている展示を見に行った。

荒川さん林さんのものに、作った映像を入れて、また他のオブジェが最後までインストールされた状態を見るのは初めてだった。
階段のある部屋だったのだけど、あの向きだと天高が低くなるので、天井!っていう感じがあった。子どもの視線の高さでは奥が見えないのかなと思ったり思わなかったり…
カラフルな紙のゴミ?の山に、可愛らしい目がついていて、ガンコちゃん的な?、Eテレ的な何かを感じらて可愛らしかった。
f:id:ysok_na:20170828063957j:plain



他には、生物を模した大きな木の作品が良かった。パネルソーで多量にピースを切り出していると言っていた。
手で切り出された脚や、竹のドームやそこに編まれたような織り等、自分だったら絶対に避けてしまうやらないような方法で作られていた。
僕は制作の1番最初の何を作るのかという段階で、生産製造的にどうやって作るのが良いのか効率や作り方的に、無意識的に作るものの形態そのものを自分で制限してしまっているのだなと感じました。
学校だけで使える機材で学校でしか作れない作品を作ったと言っていて、自分もちゃんと制作しなければと思った。
f:id:ysok_na:20170828063354j:plain



あと他の作品では、キラキラの透明な膜の作品が、前に見たときは偏光シート的なものが綺麗なのかと思っていたけれど、実際は普通の大きさの透明シートに、マジックで塗っていてテープもバンバン貼ってあるものだった。
その辺が気になるといえば気になるけど気にならないといえば気にならないくらい。
天気の関係なのか色が抜けたのかわからないけど、思っていたよりも少し色が淡い感じであった。
f:id:ysok_na:20170828062840j:plain



木版画の架空の壁画?みたいなものが、何で描かれているかわからない絵が連作として並んでいてすごかった。
(写真とりわすれた)



.

170730

心地の良い動き、動きの細部、細部と知覚?

(子ども向けの?)展示をする友人の展示の一部に、
夜空、夢の中がテーマの、UFO が画面内に飛んできて、
旋回して画面外へ飛び出していく映像を作った。


個人的にすごくこだわったところがあって、
UFO の飛ぶ向きによって、UFO が傾くように調整した。


UFO の動きに合わせて、傾きを調整したけれど、
見る子どもは、なるほど傾いている!とは思わないし、
大人が見ても、なるほど傾いている!とはたぶん思わない。


が、作っていると、傾きの調整しないよりも、
傾きの調整がある方が絶対に良いのはわかる。



比較

こっちが傾きをつけたもの。
www.youtube.com

こっちが傾きをつけていないもの。
www.youtube.com



それは、UFO の移動の時に傾いていると、なるほど傾いている!とは思わなくても、
感覚的にどこかで、速度感や加速、減速みたいなものを感じていることだと思う。


意識の上や頭でわからないし、
目で確認してはっきり捉えるものではなくても、
無意識的に、感覚の中でわかるというものがあって、

それが、はっきり理解するものでないけれども、
潜在的に良いと感じてしまうということがあって、
神は細部に宿ると言うものなのかなと思った。


潜在的に知覚できる何かというものは、
渡邊恵太の「融けるデザイン」でも言及されているいろいろなものに近いような感じがする。(乱暴)


今回の制作で気がついたことを今後に生かしていきたいと思います。


神は細部に宿るという言葉でまとめるのは、ちょっと乱暴なので、
もう少し考えてみて何か追記するかと思います。


昨日今日、映像考えただけの僕がいうのはおこがましいのですけど、
傾ける設定するの面倒くさいと思いながらも、
佐藤雅彦とユーフラテスの、
Eテレなどで流れる動画を大人が見ても心地良いのは、
そういう細部なんだろうなって思いながら、傾けました。




追記

UFO の動きは、
サザエさんのエンディングの家に飛び込むシーンを参考にしています。
わかりにくいですが、あの勢い余ってしまった感じをイメージしています。

追記ここまで





(終わり)


.

170728

よりよい制作のために、オフの時間の空いているリソースを全て試作や研究につぎ込むべき(もしくは、オフの時間にしたことを全て制作の糧にするように努めるべき)、そうしない人間は悪。
みたいな洗脳を受けてきた(自分の周りにいる人で尊敬できると思う人は、そういうタイプの人が多いように見える)ので、空いている時間にヘラヘラしている人間と絶対関わりたく無いと思ってしまう。




ヘラヘラしている人間は別の人種なんだと思って、極力関わらずに、自分は自分のペースで制作をし続けて日々頑張って生きていきたいです。




終わり



f:id:ysok_na:20170728101452p:plain


.

170705

ギャラリー間 で行われている 坂茂 の プロジェクツ・イン・プログレス を見てきた。
www.toto.co.jp




紙の家や、三日月の家、ポンピドゥーメスくらいしか見たことがなかったし、特に大好きで追いかけている建築家というわけでは無いのでまとめてみるのは初めて。


上で挙げた作品みると、造形はわかりやすく、悪い言い方をすれば、大味である。

今回の展示にあるような超大型建築の模型でも解像度がバグってみえた。
1/300の模型は、部材なんて見えないくらい(3m が 1cm になるので)のはずなのに、(多少のデフォルメがなされていたとしても)模型でははっきり部材が確認できたので、冷静に考えてもやはりバグっている。


紙の家↓
Shigeru Ban Architects
授業でスケッチアップで紙の家のモデリングしたものを、プリンタ屋で出力したのを見つけた。サポートなしなので空中になるところが汚い。

カーテンウォールの家↓
SBA_Curtain Wall House

三日月の家↓
SBA_Shutter House for a Photographer






一応模型の写真です。

ラ・セーヌ・ミュジカル(La Seine Musicale)


台南市美術館


富士山世界遺産センター





.

170703

伽藍とバザール(原題 The cathedral and the Bazaar)」 エリック・S・レイモンド 著、山形浩生 訳 を読んだ。



伽藍とバザールの概要は、 Linux 用語辞典より概要を引用します。

1998年にEric Raymondによって書かれたオープンソースに関する論文。ソフトウェアの開発の方法論として、伽藍方式(Cathedral)とバザール方式(Bazaar)があるとし、Cathedralの例としてFSFを、Bazaarの例としてLinuxを挙げている。この文書は、Netscapeオープンソース化に影響を及ぼしたとされている。


Cathedralとは、設計者がすべての計画と体制を確立して開発する、企業などで一般的に行われている開発方式をいい、あたかも大聖堂の建築を行うがごとく厳かで大がかりであることを指す。これに対してBazaar方式とは、知らない者同士がバザーで売買を行うようにアイディアや技術、またはソフトウェアそのものを持ち寄って互いに交換しながら作り上げていくことを指していると思われる。


Bazaar方式では、全体をとりまとめる責任者がいないにもかかわらず、それなりの秩序を保ったコミュニティが成立している。Bazaar方式が有効であるためには幾つかの条件があり、まず開発の最初から始めることは難しく、とりあえず何か動くものが必要であること、最初はそうでなくても、将来よいものに発展していくであろうということを開発候補者たちに納得させられること、また参加者の意見やアイデアを受け入れることができることが必要であり、コーディネーターやリーダーの対人能力やコミュニケーション能力が優れていることが不可欠であるとしている。

Linux 用語辞典(http://www.atmarkit.co.jp/aig/03linux/candb.html

.



建築設計の手法において、この「伽藍とバザール」は多く参照される。


厳格な設計図を決め、トップダウンで作られる商用ソフトを、伽藍(もしくは原題より直訳し大聖堂)とし、
オープンソースフリーソフトウェアとして全世界の多数の人間が参画しているにおいて Linux や、著者が開発を受け継いだ fetchmail 等を、広場で開かれるようなバザー、市場と例え、
すごく簡単に言うと、多数の参加、住民参加の方が良いものになるよ、ということとされることが多い。



それに対して、Linux や、 fetchmail の開発に参加している人は、
素人ではなくある程度コンピュータの知識がある人(その程度というのは、MicrosoftIBMで働いている人間も参画しているとされる)であって、
建築について素人であるその辺の子どもや、あの辺のおばちゃんをとっ捕まえてきて、建築設計に介入させれば良いのとはまた違うという批判があり、これもまた多く挙げられることだ。



この批判に対して幾つかの例を挙げると、
50回のワークショップを行い、外観のイメージや欲しい機能などを洗い出した新居千秋の大船渡リアスホールや、
工事中のシェアハウスに入る予定の住人にたいし、複数回のワークショップをして、問題が起こる前に事前リノベーションを行ったツバメアーキテクツの荻窪家族プロジェクト、
複数回のワークショップを行い、その都度、部屋の数や機能について投票によって枝切り、切断した平田晃久の太田市美術館では、
建築について素人である子どもや、おばちゃんにも設計に介入できるようにオーガナイズされていた(ようだ)。

大船渡リアスホール↓
PROJECTS / CHIAKI ARAI URBAN & ARCHITECTURE DESIGN

荻窪家族プロジェクト↓
http://tbma.jp/lab/636/

太田市美術館↓
太田市美術館・図書館 ART MUSEUM & LIBRARY, OTA




最初のオープンソース万歳という誤読(?)を乗り超え、
それに対して、(色んなところに多く書かれている)素人が設計に参加するのは違うという批判があった、これも理解し、
そろそろその次の段階として、
うまくオーガナイズできれば、素人であっても参加できるようになる、
オープンソース的な、多の力をうまく利用したデザインにつながるのではないか、
そういうテイストで、このテキストをまとめにしようと思います。






あとは上の内容と直接はつながりませんが、気になったフレーズを載せておきます。

賢いデータ構造と間抜けなコードのほうが、その逆よりずっとまし。

とても大事、心がけたい。


自分の問題のとらえかたがそもそも間違っていたと認識することで、もっとも衝撃的で革新的な解決策が生まれることはよくある。

気をつけたいです。


(デザイン上の)「完成」とは、付け加えるものが何もなくなったときではなく、むしろなにも取り去るものがなくなったとき。

これは、アントワーヌ・サンテグジュペリ(かれは児童書の古典を書いていないときには、飛行家で航空機設計家だった)の言葉だそうです。深いです。


おもしろい問題を解決するには、まず自分にとっておもしろい問題を見つけることから始めよう。

よく言われますが確かにそうだと思います。





(終わり)



.

Processing でモザイク

Processing でモザイクにするプログラム

とりあえず素材は、Macintosh / Library / Desktop Pictures の中の画像を使った。
良い画像が多い。

そーす

  // setup() で画像を読む

  // array
  for (int i = 0; i < width; i = i + n){
    for (int j = 0; j < height; j = j + n){
      
      // pick color
      color c = img.get(i+n2, j+n2);
      
      // set color
      fill(c);
      
      // draw rectangle
      rect(i, j, n, n);
    }
  }

色を拾う座標の部分をちょっと間違えたまま、
モザイクに加工して GIF にしてたことを、
ここでまとめていたら気がつきました...
上のソースは修正済み。


f:id:ysok_na:20170606201338j:plain
f:id:ysok_na:20170606201353j:plain
f:id:ysok_na:20170606201408j:plain



gif

f:id:ysok_na:20170605011438g:plain
f:id:ysok_na:20170605011833g:plain
f:id:ysok_na:20170605011837g:plain
f:id:ysok_na:20170605011847g:plain





この辺を読んだので、GIF の制作をしてみた。
ループする絵として、モザイクになって戻るものにした。

もうひとつ,「GIF」を考えた文章として挙げられるのが,インターネット・リアリティ研究会の始まりの座談会です.そこに「GIFとJPEGどっちが硬い?——Webの質感と〈インターネット・リアリティ〉」という一節があります.そこで,エキソニモの千房さんが「GIFとJPEGはどっちが硬いと思うか?」という問いを出すわけですね.


インターネット・リアリティ研究会
座談会「『ポスト・インターネット』を考える(β)」より
http://www.ntticc.or.jp/ja/feature/2012/Internet_Reality/document6_j.html


.



あとは、モザイクをやってみようと思った理由として、ファンが撮った橋本環奈の奇跡の一枚の転載ネタから。
ファンが撮った一枚の画像がどんどんと転載され、時にはスクショや、トリミングなどの編集が施され、今では解像度が落ち、とても小さな画像になってアップロードされている例が見受けられる。
しかし、そのように小さな画像になっても、顔の表情が見れないサイズでも、全体の色の感じであの橋本環奈の奇跡の一枚と認識できる。
作っている途中で、あの画像(画質)の劣化、劣化した場合、どこまでが認識できる写真で、どこからが認識できないゴミになるのかな、いうことも少し制作のときにどこかにあった。気がする。


ネットで少し見る限り、最大は、 6000 X 4230 、最小は、 100 X 70 くらい?

f:id:ysok_na:20170606200655p:plain
f:id:ysok_na:20170606200709p:plain


f:id:ysok_na:20170606200726j:plain
f:id:ysok_na:20170606200745j:plain

100 X 70 の画像を iPhone で見るとこんな感じ…
f:id:ysok_na:20170606202043p:plain



_

170531

ソフトウェアを綺麗に使う、という最近の目標があります。



仕組みよくわからんけどなんかできてるとか、使い方おかしいけどなんか良いとか、
それはあとあと苦しい。みたいな使い方を出来るだけしないようにしたいです。



どのアプリケーションでも言えるのが、オブジェクトやレイヤの名前付けや分類などの管理を適当にやる。

フォトショのレイヤの合成の減算とか対等に選んで良さげなやつにした。

ブレンダーでマテリアルの設定で、複数のノードを無駄にミックスしまくっている。

ライノでフィレット等でサーフェスが汚い。

グラスホッパーアルゴリズムに無駄が多い。




どれも使えていると言えば使えているけど、後での修正がめちゃくちゃ面倒だし、
それが資産としてストックになっているかと言えばなっていない気がする。




テレビを見ていたら、プロの料理人が指導して、素人の芸能人が真似して作るヒルナンデス?のコーナーがやっていた。


プロの料理人が作りながら片付けもしていて料理の完成の時にキッチンが綺麗になっているが、
素人の芸能人は使い終わったボウルをその辺においたり、菜箸をシンクに入れてしまって新しいものを使ったり、
また、ごちゃごちゃしたまま進めているので、入れる材料を飛ばしてしまったりしていた。


料理でも、アプリケーションでも、上手い人はそれを綺麗に使えるのだと思いました。



.

170530

CGを用いて映像を制作する時にソフトを比較した際のメモ。


Blender は、ニコニコ界隈のメイキングがあり幾つか見てみる限りかなり良さそう。
個人的に切り出した映像ではなく、アプリケーションとして作って、
演算し続けるようなものをやってみたい、という気持ちもあったので、 Unity も触れてみた。


Unity を触れるにあたり、情報デザイン学科の谷口暁彦先生の
ヴィデオゲームアートのための Unity 講座の資料を参考にした。資料はこれ→( http://okikata.org/gameart/ )

Unity

  • メリット

いわゆる3Dゲームのような具象的な表現が得意
物理演算、ライティング、フォグ、被写界深度などはコードを一切書かずに実現できる。
出来合いのアセットなどの組み合わせが豊富なので、箱庭的に空間を構成できる。

  • デメリット

逆に抽象的でジェネラティブな表現は苦手。
アセットを追加すると自分で書いていないコードが大量に入ってくるので、
エラーやメモリリークがあった場合、原因を探すのが結構大変
そしてやや不安定になる場合も。

( Intoroduction より http://okikata.org/gameart/introduction.html


以前、さくっと写経したのがこれ↓
www.youtube.com



以前触って、そして今回また少し触ってみての感想は、
谷口先生の言葉を借りますと、Unityは箱庭っていう感じがすごいしっくりきた。


うまく言葉にできないが、
すでにできている強固なプラットフォームに自分で作ったものを乗せて行く感覚。
コードもりもり書くような制作をしてないからかもしれませんが、
Unity の開発環境が凄いしっかりしたプラットフォーム(=土台)なのですが、
土台がしっかりし過ぎていて、自分で作品を作っているって感覚よりも、自分の作品をそこに置く、みたいな。


f:id:ysok_na:20170530044454p:plain
箱庭キットというものが最初にあって、そこに、市販のジオラマ用の樹木とか標識とかをおいて、
あと少し自分で作った何かを設置するみたいなイメージに近い気がします。


ふと某所で見た鉄道模型を思い出しました。
鉄道模型で、ある程度は、市販の樹木やビル、電線などを買ってきて設置し、
市販されてない東京スカイツリーや新型車両は、自分で作って設置する。
結果、市販のものと、自作のものと混在していて、模型全体ではうまくできている、みたいな。
(そして、谷口先生は最近、鉄道模型に凝っているような)


Unity とあまり仲良くなれなかったので、今回は、 Blender でいきます。
今後は、きちんと勉強して、 Unity をうまく使っていきたいと思います。

Making of Oyasuminasai

" 夜空の動画を作るメモ "

星空の~と聞いたのが、3月。
Blender と、Processing でいくつかテスト。
Blender のアニメーションができることはわかった。
www.youtube.com


で、特に何もなく一気に5月。
いくつか検討をはじめる。


まず使用するソフトについて。
モデリングは、特に迷うことなく Rhinoceros で。

映像をレンダリングして書き出すとして Blender か、リアルタイムレンダーとして Unity か。
シェーダとか Unity が気になったが、Blender でのアニメーションは確実にできるということが、
わかっていたので Blender で。
そのへんはここに。

ysok-na.hatenablog.com


ここで、映像のテイストも確認。
映画「The Little Prince」のこのシーン。
(この映画は、CG パートと、和紙?のストップモーションパートがあってどちらも凄い)
シェーダではないので、Blender でok。

www.youtube.com



まず Rhinocerosモデリング

ローポリで作ると軽いので、後で幸せ。
3角メッシュのミラー、環状配列で星にする。
vertex 12 / face 20
f:id:ysok_na:20170527190823j:plain


この辺はミス、かっこいいけど
f:id:ysok_na:20170527190830j:plain
f:id:ysok_na:20170527190835j:plain


背景用にパーリンノイズでポリメッシュと、(ぺらのメッシュにしました。)
ランダムに星を配列。
f:id:ysok_na:20170527190840j:plain


パーリンのメッシュは、単独で背景用マスク用にレンダリングして画像にした。
あとでテクスチャにする。
f:id:ysok_na:20170527191331j:plain


FBXで書き出し。
Rhino から Blender では、FBXでは回転してしまう。
STLでは回転しないが、離れたものも1つのオブジェクトとして認識されるので駄目。


ここから Blender

インポート。
f:id:ysok_na:20170527192028p:plain


星を光るように設定。
放射シェーダーなど。
f:id:ysok_na:20170527192127p:plain


レンダリング結果。
f:id:ysok_na:20170527192233p:plain


コンポジション機能でブラーをかけた。
f:id:ysok_na:20170527192346p:plain


1枚目のレンダリング画像と、ブラーを合わせる。
ミックスのやつで比較で合成。
f:id:ysok_na:20170527192430j:plain


平面すぎるので、奥行き感を与える。
星の間に半透明の画像をレイヤとして重ねる。

// 追記
奥行き感を出すための半透明レイヤなどしたが、
コンポジットのノードの中にカメラ距離の様な機能があった(それはそう)
フォグ、被写体深度 etc...
機能が多くあったのでちゃんと勉強しないといけない。
// 追記ここまで

f:id:ysok_na:20170527192622p:plain


奥行きの工夫のレンダリング結果、良い感じ。
f:id:ysok_na:20170527192947p:plain


奥行きのレンダリング画像に、前述のコンポジションを加える。
それと同時に、Rhino で最後に作ったパーリンの画像テクスチャを差分で合成する。
f:id:ysok_na:20170527193347p:plain


とりあえずその結果。
パーリンのテクスチャが、なんとか銀河なのかなんとか星雲なのか、よいムラになってよかった。
f:id:ysok_na:20170527192848p:plain


Blender メモ。
ガムボールの位置の修正はこれ。
オブジェクト > トランスフォーム > 原点をジオメトリの重心に移動
f:id:ysok_na:20170530071235p:plain


グラフエディターで2点間の補完の種類が選べる。
2点を選択して、” T ”
今回は等速で動き続けてくれれば良いので、リニア
ここが詳しいです→( http://blender-cg.net/graph-editor/
f:id:ysok_na:20170530071626p:plain


動きを表現するぶれ、モーションブラー
うまくいかなかったので、今回はこれでないものでやろうかと思います。
一応、サンプルファイルの検証を次の記事に入れました。
f:id:ysok_na:20170530072230p:plain
ysok-na.hatenablog.com



透過にチェックを入れ、アニメーションとして動くものだけレンダリングし、
背景は、次のコンポジションで処理します。
f:id:ysok_na:20170530072610p:plain


動きのぶれをモーションブラーではなく、コンポジションでやります。
レンダリングした画像を保存して読み込むのではなく、
そのままコンポジションするときは、ポストプロセシングのチェックを入れます。
ノードエディターがいくつか見えていて気持ち悪いのですが、マテリアル用とコンポジション用です。
f:id:ysok_na:20170530072341p:plain


コンポジション用の設定を終えたら、アニメーションのレンダリングを始める。
今回は、動くもの5個だけ、背景はコンポジション処理なのでとても軽い。
www.youtube.com


コンポジションについては、できる人はこのようにやるようだ。
きちんと勉強しなければ...
CGcompo Blenderでコンポジット!


コンポジションがよくわからないものを、上のリンク内のキャプチャ画像を見てみる。
Photoshopの普通のレイヤのように重ねる方法は、
カラー > アルファオーバー のノードでできた。
プリマルチを1.0にする。
f:id:ysok_na:20170602000403p:plain


これでコンポジションのめどが立った。


星の煌きは、回転じゃなくて光具合でということなのでテスト
失敗、わかりにくい、微妙?
www.youtube.com


キーフレームのテスト
流れ星はこれでとりあえず動く。
www.youtube.com



7月に入って現場でのテストができるようになる


プロジェクションのための窓枠
これを打ってそれに合わせてばみって位置あわせ。
f:id:ysok_na:20171204211427j:plain


流れ星の設定と窓枠のコンポジション
フレームとポジション指定。
(なぜか星の色が違うけど)
www.youtube.com


現場のプロジェクタとスクリーン等。
やってみて怪しい部分が出てきた。
黒すぎる...
f:id:ysok_na:20171204212459j:plain


ここらへんで、この辺の夜空の CG をチェック。
ysok-na.hatenablog.com


現場で静止画で補正。
思ってた感じとかなり色が違う。
色を白に結構ずらしたので微妙ぽい。
f:id:ysok_na:20171204212602j:plain


上の補正用の画像からテスト用の背景を作る。
が、実際に打ってみると鮮やかさ青さが足りない?
f:id:ysok_na:20171204212800j:plain


プロジェクタで打ったイメージがつかめないし、
Mac のモニタと、セカンドディスプレイの SHARP のテレビでも色味が違うし、
本当に困った。。。
現場でプロジェクタで打った画面で photoshop をいじる結局。
ここでグラデーションの色を決める。
f:id:ysok_na:20171204212947j:plain


無理やりコンポジションでどうにかしようとしている。
f:id:ysok_na:20171204213134p:plain


たぶん完成。
ここのタイミングで、
頭とお尻がニュートラルというか同じ状態の数秒のクリップを複数作って、
それを適当に組み合わせれば、最小限のレンダリングで、
長い尺の動画が作れるとわかった。
f:id:ysok_na:20171204213333j:plain


流れ星、煌きのほかに UFO とか出来そう。
いらすとや使おうかと思ったけどちょっと見たら微妙、
他の素材サイトも探すの面倒なので、はやしに頼んだ。
f:id:ysok_na:20171204213432p:plain
f:id:ysok_na:20171204213454p:plain


UFO のモーションちょっとこだわった。
こっちでくわしく↓
ysok-na.hatenablog.com
www.youtube.com


UFO と同じ方法で ET 。
これは著作権も怪しいので没。
youtu.be


結果的に、

  • 流れ星 3秒 X 6カット
  • 煌き 2秒 X 6カット
  • UFO 6秒 X 1カット

を並べて長い動画にした。
f:id:ysok_na:20171204214809p:plain
www.youtube.com


これで完パケ。
(2017年 8月 1日 0:17)


ちなみにスタート?というか、
はじめに Blender のテストしたのがこれで、
日付は、 2017年 3月 14日。
途中完全に放置してたときもあるのでなんともいえないけど、
結構、長丁場だった。
www.youtube.com



完成後、見に行ったときの他の作品も含めての感想等。
ysok-na.hatenablog.com




あとは、直接関係のない Mac OS の Chips ですが、Blender のような、起動している1アプリで1プロジェクトだけ開くようなソフトで、複数プロジェクトいじるには、複数の同一アプリを開くしかない気がする。

その方法は、 Terminal.app で、通常の

open hoge.app

ではなく

open -n hoge.app

で開くと、同一アプリの複数起動ができるぽい。便利ですね。(ソフトによるかもできないものある)




_

3D CGのレンダリング時間、「STAND BY ME ドラえもん」

Blenderで約4秒間(125フレーム)のCGアニメーションを制作しました。
レンダリングが、1280ピクセル x 720ピクセルのサイズで、30時間かかりました。

その待ち時間の間に、山崎貴が監督したCG映画「STAND BY ME ドラえもん」のレンダリングがどんなものかと調べてみたのでまとめておきます。


3DCG映画『STAND BY ME ドラえもん』制作秘話 - スタッフが追求した徹底的な「リアル」とは (1) 1年半以上かけてキャラクターやひみつ道具を3D化 | マイナビニュース

【特集】【本日公開】映画『STAND BY ME ドラえもん』制作の舞台裏 ~『ドラえもん』がフル3D CGに - PC Watch

ASCII.jp:えっ、指紋つきのドラえもん!? 3DCGに込められた「質感」へのこだわり (1/3)

しばらく引用が続きます。
引用はあまり良くない(引用とわかるようにしているのでコピペとして怒られることはないのかなと思います)のですが、
インターネット上の情報は、記事が(場合によっては掲載メディアごと)消されて消えてしまったり、URLが使えなくなってしまったりと、情報が保存されないことがあるので、今回は引用というかたちにします。

制作期間は、企画から4年、実作業で3年半。そのうち制作の準備段階で1年半もかけている。この準備をしっかり行うのが白組の制作スタイルだ。映像を制作する行程について、八木氏が教えてくれた。
マイナビニュースより)
(補足 : 八木氏とは、山崎とともに監督した八木竜一)

リアルさを表現するにあたって、質感の表現にも新しい技法が取り入れられている。「サブサーフェイス・スキャタリング」と呼ばれる、光が皮膚などの表面を透過して、内側が透けて見える様子を再現する技法が、ひみつ道具や、キャラクターたちの肌にふんだんに使われている。未来のひみつ道具はより未来的に、キャラクターは生身を感じさせるような暖かみのあるリアルな質感となった。

とはいえ、サブサーフェイス・スキャタリングは負荷のかかる処理でもある。レンダリング環境はメモリを32GB以上に統一していたが、複雑なシーンでは、1枚の絵をレンダリング(計算)するのに、6時間かかることもあったのだそう(映画は95分あり、12万枚以上の画像が必要)。

それ以外の一般的なシーンでも、1枚あたり1時間かかるのは当たり前。リアルなキャラクターやひみつ道具が完成した裏には、質感にこだわり抜いたスタッフの職人魂があったのだ。
マイナビニュースより)

一般的なシーンを描くのに用意したポリゴンデータは、背景データとキャラクターデータを合わせて4,000万ポリゴン前後。
ちなみにキャラクターをレンダリングする際にも、こうした背景データからの陰影や映り込みの影響が計算されている。
ドラえもん」で29万ポリゴン前後、のび太で86万ポリゴン前後という
マイナビニュースより)

空き地のシーンは、空き地部分だけで約1400万ポリゴン、周辺にある塀や民家を合わせて約3500万ポリゴンで構成されている。
使用している3DCGソフトはオートデスクの「3ds Max」
マイナビニュースより)

実際の映像制作に使われたデルのワークステーション「Precision T7600」。
スペックはCPUがIntel Xeon E5-2665(2.40GHz)、メモリが64GB、ストレージが500GB SATA3 HDD、OSがWindows 7 Professional 64bit
マイナビニュースより)

ここまでマイナビニュース

「各シーンでは、まずキャラクターの骨組みのような単純なモデルを用いて、動きなどを作り込んで行きます。それから最終的にレンダリングを行なう段階で実際のモデルと差し替えていくんです」と説明する。

実際のモデルと差し替えた後、いよいよレンダリングが始まるわけだが、白組では数百台のマシンを用いて、CPUでレンダリングを行なっているという。レンダリングにかかる時間は、今回の『ドラえもん』ではまだすべては計測していないそうだが、鈴木氏によれば「前回の『friends もののけ島のナキ』では1フレームあたり約12分を想定して制作していました。『ドラえもん』では1枚あたり1時間なんというのはよくありますよ。タイムマシンが手前に迫ってくるような、非常に重いシーンでは、1フレームあたり6時間かかりましたね」という。
PC Watchより)

『STAND BY ME ドラえもん』の制作には、デルのワークステーション「Precision T7600」が6台利用された。導入期間は2012年11月から2013年の2月。主な仕様としては、CPUにXeon E5-2665(Sandy Bridge-EP/8コア/2.6GHz/L3キャッシュ20MB)、メモリ64GB、500GB HDD(7,200rpm)、OSにWindows 7 Professional(64bit)などを搭載している。

鈴木氏は、「当初はPrecision T5500を利用していたんですが、制作の中でスペックを強化していきました。最終的に合成のチームはPrecision T7600を、レンダリングには同じくデルのOptiPlexシリーズを多数利用しました」と説明する。
PC Watchより)

ここまでPC Watch

白組 CGスーパーバイザーの鈴木健之氏「キャラクターの計算をするにも背景データがちゃんとなくちゃいけないんです。たとえば、空き地の中だけで1400万ポリゴン。外の民家とかも3500万ポリゴン。リアルタイムでは開けないですね。計算して初めて絵がわかる。ちなみにキャラクターで言うと、ドラえもんが29万ポリゴン、のび太が86万ポリゴン。一般的なシーンで、4000万ポリゴンぐらいです。データは最終的にレンダリングサーバーに全部集約されるんですが、普通のマシンでは耐えられないですね。ピーク時は数100フレームと計算したものが1週間帰ってこない。失敗すると大変です、全部撮りなおさなきゃいけないので(笑)」
アスキーより)

ここまでアスキー


引用終わります。




これらの記事より、レンダリングについての情報をまとめると、

「STAND BY ME ドラえもん」は、1時間30分程度。
フレームに換算すると、約12万フレーム

1フレームに10枚程度の画像を合成する。
そのため、12万フレームを作るためには、
約120万枚のレンダリング画像が必要

1枚のレンダリング画像を
レンダリングするのにかかる時間は1時間から最大6時間

記事によると、
PCはレンダリング用のマシンは200〜250台。


これらから、概算すると、
200台のPCで、120万枚のレンダリングをする、1枚あたり1時間かかるとする。

120万枚 ÷ 200台 = 6000枚/台

6000枚を処理するのは6000時間なので、
1日24時間に換算すると、250日

つまり、失敗することや、負荷が大きいカット、長い尺など、
また人間の労働時間を無視しての概算になりますが、レンダリングだけでほぼ1年かかっている。


レンダリングにとりかかる前に、3Dモデリング、テクスチャの構築、
アニメーションにするための骨やカメラのコントロールなどの作業がある。



ちょっと考えてみるだけでとても恐ろしい作業です。。。

3D CGは札束で殴りあうしかないという例えを聞くことがありますが、
レンダリングの処理を軽くする工夫も絶対必要ですが、
最後はマシンの人海戦術になるのだろうなと思いました。

170327

最近、htmlとCSSを弄ることと、Adobe Illustratorで作業することを並行して行なっていた。
その中で、Illustratorの不便さのようなものを少し感じた。


それは、CADで語られるパラメトリックと非パラメトリックに少し似ているのかと思う。


htmlの方では、htmlの方に必要なテキストを記述し、別ファイルに装飾のためのCSSを書いた。
その為、テキストの変更はhtmlで、デザインの変更はCSSでというかたちにになっている。
1つのCSSをそれぞれのhtmlで読むようにしたので、トップのページやその下の階層のページのデザインは一括で管理出来る。
この状態から、デザインを変更したい(文字のフォントや色を変えたい、背景を変えたい、配置を変えたいetc)場合は、1つのCSSを弄れば済む。


Illustratorの方では、似たようなフォーマットを複数ページ作ろうとした。
page01.aiのデザインを修正すると、page02.ai、page03.ai、、、pageN.aiまでのN個のファイルを修正するはめになった。
1つのファイルのパラメータを他ファイルにもまとめて適応されてくれよ、と思った。
(1つのファイル内で複数のページを作ってレイヤーなりで管理しながら、⌘Aでどうにかすれば良いのかもしれないけど)
(ちゃんと調べれば、何か方法があったのかもしれないのですいません知識不足です。)


ここでの作業の違いは、パラメトリックデザインと非パラメトリックデザインの違いに似ている(のかなと思った)。
もにょもにょしたものをパラメトリックデザインと呼ぶような風潮もあるが、ここでは履歴やパラメータを保持してデザインしていくものの意とする。


パラメトリックデザインでは、適当なパラメータをあてて、関係性をどんどん決めていくことができる。そしてある程度出来た後にパラメータを調整して、デザインを変える修正することができる。
パラメトリックデザイン(ダイレクトモデリングとも呼ばれる)では、ヒストリーとして何かが残っているわけではないので、あとで前の段階で作ったものを修正ということは基本的に出来ない。


パラメトリックの機能が必要なのは、試作を繰り返す際の作業効率を大事にするような製造業というイメージがあるが、そうでない環境でも付いているとても便利だ。
(製造業向けのソフトウェア、SOLIDWORKS、Inventorなどには必ずついているはずだ)


htmlとCSSでは、CSSの方で、でごにょごにょ関係性を記述しているので、パラメトリックデザインのように、CSSを触ることでパラメータだけを後でいくらでも変えることができるし、関係性を決めたCSSを読み込んであげれば、読み込んでいるhtmlファイルをまとめてデザインが変更できる。
逆に、illustratorでは、オブジェクトが違えば色の塗り替えや、フォントの変更ができるが、ヒストリーをいじることはできない(非パラメトリック的)。おのおののオブジェクトを変更することはできるが、複数ファイル、複数オブジェクト、複数ページにまたがるものはまとめて変更できない(ちゃんとやればできるかも)。


パラメトリックデザインと非パラメトリックデザイン、もしくは、ヒストリーかダイレクトと二項対立的に語られるが、僕の個人的な感想は、前者の方が圧倒的に便利で、非パラメトリックな環境はあまり使いたくないなと思った。


自分のPCには入っているソフトで言えば、Rhinocerosでは、ヒストリーをつかわずにも(一応あるがデフォルトの設定でオフになっている)、grasshopperによりパラメトリックが可能となっている。
また、Autodesk Fusion360は、基本は無料のソフト(有料ユーザーでも安い)であるが、ヒストリーが付いているのでパラメトリックデザインが可能だ。


しかし、平面へのデザイン、グラフィックデザインの標準ツールとなっている、illustratorでは、積極的にパラメトリックを使えるわけではない。
また、スクリプトという機能もあるのだが、それは、便利な拡張機能を作るということが多いようだ。
illustratorパラメトリックを持っていないので、僕はカッティング用のデータなどであればRhino+grasshopperで作り、.aiで書き出すことが多い。


グラフィックを作るのであれば、processingやopenFrameworksで、自分でコードを書くのでパラメータをいじれるようにつくることができる。
illustratorに耐えれなくなったらパソコンがもっとできるようになったら、illustratorから離れ、別の環境で制作するようになるのかなと思った。
(後で修正する必要がないようなすごく簡単なものであれば、ヒストリーはいらないので、illustratorや、wordでサクッと作れば済むのだけど)


ちなみに、自分の周りで多くの人が使っている、ヴェクターワークスではヒストリーが基本的にないが、シンボル等の機能があり、部分的にパラメトリックデザインのように使えるようだった。


いろいろ書き出してみると、grasshopperやFusion360のようなパラメトリックデザインが可能な環境はとても優れているなと改めて感じた。
そして、illustratorで不便な思いをしまくてもいいように、コードを書ける力をつけたいと思った。