Deep learning

0001 ◆z8RI12j18Y 2013/12/25(水) 17:39:01.28
http://en.wikipedia.org/wiki/Deep_learning
wikiで意味するそれについて。
wiki以外の定義はお断り。
0002デフォルトの名無しさん2013/12/25(水) 17:39:43.47
人工知能ネタ
0003デフォルトの名無しさん2013/12/25(水) 17:41:33.62
>It typically uses artificial neural networks.
ってことです、これに反論する人はこないでください。
0004デフォルトの名無しさん2013/12/25(水) 21:20:25.43
0005デフォルトの名無しさん2013/12/25(水) 23:02:27.34
>>4
作者乙
0006デフォルトの名無しさん2013/12/26(木) 03:18:06.70
このスレッドは天才チンパンジー「アイちゃん」が
言語訓練のために立てたものです。

アイと研究員とのやり取りに利用するスレッドなので、
関係者以外は書きこまないで下さい。

                  京都大学霊長類研究所
0007デフォルトの名無しさん2013/12/26(木) 20:40:17.06
pre-trainingって、どういうデータでやるの?

学習に使うデータ?
ランダムなデータ?
基本図形のようなデータ?(画像認識なら)
0008デフォルトの名無しさん2013/12/27(金) 22:12:32.83
Deep learning
って、噂と論文の評価ばかりで反証した例が1つもない。
作ったと言い張るだけで、そのシステムが再利用できていない。

核心部分を隠蔽することで秘密だからという理屈で技術になっていない。

技術というのは誰でも再現して再利用できるものを言う。
それを除いた部分が噂とデマで広がっているだけな。
0009デフォルトの名無しさん2013/12/27(金) 22:13:04.60
おまえらも本物しらずに他の翻訳みたいな解説本を売れば
いまなら高額で売れるぞ。
0010デフォルトの名無しさん2013/12/28(土) 12:56:07.09
Hintonの書いたWebSite読めないような人がDeep learningつかう機会あるのか?
0011デフォルトの名無しさん2013/12/29(日) 00:50:44.21
>>10
おまえバカだろ。
0012デフォルトの名無しさん2013/12/29(日) 02:05:39.76
>>11
相手にするな。勝手な思い込みと決め付けで何もできないからストレスを
発散しているだけだよ。
0013デフォルトの名無しさん2013/12/29(日) 14:41:33.32
matlabのコード置いてあるのに反証って、どうやるの?
自分で別のデータ用意すりゃ良いだけじゃないの?
0014デフォルトの名無しさん2013/12/29(日) 14:42:58.60
ついでに、この手のアルゴリズムって、
わざわざ自分でフルスクラッチで書かなくても誰かがOSSで実装しちゃう
0015デフォルトの名無しさん2013/12/29(日) 14:48:39.15
スパースコーディングみたく基底あつめてんだろ
0016デフォルトの名無しさん2013/12/29(日) 20:05:17.35
やる人はやる、無能は口だけで妬みだす、
定義とか具体性とかでいくら主張しても結果だせなければ技術者としてクズ以下なのよ

無能よばわりされたくなければ2chでうだうだいってないで手を動かせ頭を使え。
俺スゲーしたいなら2chで言うなボケアホ、自分のリアルな周りに納得させろ
0017デフォルトの名無しさん2013/12/30(月) 05:45:55.30
>>16
むしろ気になるのは、何で貴方みたいなのが、2chを読んだり書いたりするのかなって
0018デフォルトの名無しさん2013/12/30(月) 05:54:38.66
例えば、研究室の自分の周りの環境が半日以上YouTubeでアニメを見るだけだったり、
指導教官の腐ったキテレツみたいなのが、瑣末な結果に因縁をつけて進捗しないだけでなく、
バグだと決めつけて次のステップに進めず、おまけにゼミでの指導がGNUPlotの色合いが悪いとか
線が細いみたいに研究と全く関係のない戯言で、学費泥棒みたいな環境に居たら、どうしたらいいわけ?
0019デフォルトの名無しさん2013/12/30(月) 06:01:31.87
任意性度演算なにそれって人が教授やってるかと思うと反吐がでるよ
あんな奴、クビになればいいのに
0020デフォルトの名無しさん2013/12/30(月) 17:34:49.45
>>17
必要な水準のはるか下か、最前線でオマエラより数段上にいるかの2択。
0021デフォルトの名無しさん2014/01/01(水) 01:05:33.87
他人が引いた線路の上だけで線路から脱線しないようにしている有能さは
日勤教育の成果だな、JRは偉いわ。
0022デフォルトの名無しさん2014/01/01(水) 09:18:58.55
※ただし、Railsを除く
0023デフォルトの名無しさん2014/01/02(木) 05:28:17.50
技術とか真似することで始まるんだよ、だけど真似しかできないって
無力すぎる
0024デフォルトの名無しさん2014/01/04(土) 20:14:38.31
未だに連想記憶モデルみたいなアルゴリズムに
ノイズを入れて復元するだけの論文かいてるアホ教授いるだろ
あいつらクビになんねーかな
0025デフォルトの名無しさん2014/01/08(水) 20:23:40.12
教授にも成れない奴ってどんだけ無能なの?
0026デフォルトの名無しさん2014/01/10(金) 08:59:28.67
>>24
おまえバカだろwwww
0027デフォルトの名無しさん2014/01/10(金) 10:09:52.89
>>25
大学に金払うバカバカしさを悟ったところで卒業するんじゃないの?
それとも高卒?
0028デフォルトの名無しさん2014/01/10(金) 11:28:19.41
>>27
>大学に金払うバカバカ
ありえんw
どんだけ貧乏なの?
寄付ぐらいしろよ。
0029デフォルトの名無しさん2014/01/10(金) 12:02:13.14
>>28
Youtubeやスライドシェアに上がってる機械学習の資料を見た瞬間に
大学へ行くバカバカしさを悟ったよ。
大学教授のボンクラどもに募金するなら、そこらのOSSに寄付した方がマシ
0030デフォルトの名無しさん2014/01/24(金) 09:10:06.41
資料の表面的な意味しか理解できない奴にはゴミ扱いなんだろうな。
それが超えられない壁を作っているわけで。
0031デフォルトの名無しさん2014/01/25(土) 00:20:36.54
ばーか。こんなものは深く理解したところでゴミだ
5〜10年後に、DeepLearning以上のアルゴリズムが出来ているのは確実で、
DeepLearning自体のライブラリがOSSで出来上がる
0032デフォルトの名無しさん2014/01/25(土) 00:22:17.64
性能が良いって理由で飛びつくヤツは本物のアホ
vc++でゲームプログラマ級のプログラミングスキルが無ければ触らない方が良い
0033デフォルトの名無しさん2014/01/28(火) 06:41:16.17
HintonがGoogleに雇われている間に、新しい学習アルゴリズムを開発したら
その知的財産権は誰のものになるんだろう
0034デフォルトの名無しさん2014/01/28(火) 16:08:05.57
0035デフォルトの名無しさん2014/01/29(水) 01:03:03.94
学生時代に読んだ論文の著者がFacebookやGoogleで働いてるのを見ると、
もっと論文を読み込んでおけば良かったって、とても損した気分になる
やっぱり、あれをゴミ扱いしていた俺の指導教官がアホなのだ
0036デフォルトの名無しさん2014/02/22(土) 20:15:53.40
ttp://grey.colorado.edu/emergent/index.php/Main_Page
0037デフォルトの名無しさん2015/05/04(月) 04:14:16.19 ID:rKGdv4mo
なんだよこの糞スレは
OSSならCaffeというスゴいのがもうあるだろ
DLは俺も勉強してるけどこれは難しい
確率論や機械学習ある程度理解してないと読み解けない
0038デフォルトの名無しさん2015/05/30(土) 12:29:06.44 ID:+TDQwa6/
Baidu研究所のDeep Speech(DeepLearningを使った音声認識)
http://usa.baidu.com/deep-speech-lessons-from-deep-learning/

DRNN使ってるけどさ、あれって言語モデルで使う場合、
現時点の入力単語に対して、次来る単語を予測するモデルじゃなかったっけ?
文献見ると、1つのニューラルで、音響モデルから言語モデルまで全部任せちゃうって書いてるよ。
どうやってんだ。

しかも、RNNの場合、入力と出力の数をあわせなければいけない。
合わせるにしたって、入力波形のアライメントというかサイズってどうやって特定してるんだろ?
その音素区切りをやってる事前処理の方が気になるよ。
0039デフォルトの名無しさん2015/08/24(月) 16:58:12.29 ID:/0CHOvYj
ConvolutionalNeuralNetworlの
畳み込みレイヤーの3Dとか2Dってどういう意味?
多分、俺は2Dしか知らないと思う。
フィルタにかけるテンソルの単位が何枚にも重ねて一度に処理するから速いってだけ?
0040デフォルトの名無しさん2015/09/22(火) 02:58:20.35 ID:OZS+wcRv
>>39
cuDNNの話?
それであってるけど、3DはFP16対応やら最適化やら不完全で、
nVIDIAによると現状3Dはパフォーマンスでないから、2Dでやるのが吉。
複数画像を1枚にまとめてミニバッチ処理にするとよいよ。
0041デフォルトの名無しさん2015/09/27(日) 12:34:07.96 ID:kJaYp3v/
Tensorにするのと、ミニバッチにするのの違いは?
どちらも複数の画像をまとめる感じだよね。
上に重ねるか、横に並べるかの違いのイメージ。
特性とかに違いとかありますか?
0042デフォルトの名無しさん2015/09/29(火) 08:03:32.62 ID:CaCmBpb+
J-wave に松尾豊
0043デフォルトの名無しさん2015/09/29(火) 08:39:00.48 ID:FfAjxenL
松尾「おはようモーニング」www
0044デフォルトの名無しさん2015/10/27(火) 04:03:02.98 ID:Cr6SZd+c
ここまでほとんど有益な情報無しとか終わってんな
日本の知性の総本山である2chでこれじゃあな
DQNやろうぜ
0045デフォルトの名無しさん2015/10/28(水) 12:07:27.81 ID:ItThDbeU
つい5〜6年前までは、ニューラルなんて過去のテクノロジ・・・っていう研究者が殆どだった。
そもそも、原因と結果がはっきりしないアルゴリズムなんだし、精度でなければ研究的にはただのゴミ。
理論を詰めることすら出来ない。
大半の人の中では、何か放り込んだら何かしら結果が出るってものだったしな。
0046デフォルトの名無しさん2015/10/28(水) 12:12:10.52 ID:ItThDbeU
>>44
情報持ってる人は、外に漏らすメリットないからな。
今まともに実装できる人は、自分で開発して売却すれば億単位の利益が入ってくるドル箱なんだし。
友人も、DeepLearning系やってる人は、Googleとかにガンガン青田買いされてとんでもない報酬貰ってる。
そりゃ、情報は独占するだろ普通に。

今のWebは情報持ってないけど興味ある人達が、
ちょこっとCaffeやpylern使って、その設定を公開してるだけの状態。
0047デフォルトの名無しさん2015/10/28(水) 12:31:24.62 ID:2foiL532
万能じゃないことにまだ気づいていないバカがいるから
0048デフォルトの名無しさん2015/10/29(木) 19:13:21.55 ID:JGKRBIwa
万能である必要は無いのだが
勘違いしてる奴がいるな
0049デフォルトの名無しさん2015/11/12(木) 13:02:10.74 ID:MpIB7M+M
deep learningの本スレってここですか?
理系板回ってみたけど見つかんなかった
0050デフォルトの名無しさん2015/11/19(木) 23:16:57.66 ID:dFnMIhTH
零和有限確定完全情報ゲームのAIを作るとして、
定石や手筋、上級者の棋譜といったものがない場合、
どのような学習方法が考えられるでしょうか。
0051デフォルトの名無しさん2015/11/20(金) 12:46:06.98 ID:lVXBiS58
教師なし学習
0052デフォルトの名無しさん2015/11/20(金) 20:03:57.53 ID:dD9H+5nD
教師無し学習っていっても具体的にどうすんのよ
0053デフォルトの名無しさん2015/11/20(金) 22:10:30.92 ID:h5Le2W6O
逆に教師あり学習ならできるんじゃね?ゲームを通じての各局面に対する着手の組を
入力にして勝敗を出力にすれば。
局面がごく小さいゲームじゃないと収束しなさそうだけど。
0054デフォルトの名無しさん2015/11/20(金) 22:11:21.41 ID:CSRNfUOH
勝ったら褒める
0055502015/11/20(金) 23:25:46.43 ID:dD9H+5nD
ゲームだと勝った局にも悪い手があったり、負けた局にもいい手があったりして、
正しく学習するのがむずかしいとおもってます。
0056デフォルトの名無しさん2016/01/12(火) 01:53:34.50 ID:DwPf0XVZ
ディープラーニングで必要な教師データ数の指針をまとめてるような資料ない?
0057デフォルトの名無しさん2016/01/12(火) 02:02:49.77 ID:j5pK34T9
>>55
そりゃ簡単だったら囲碁はとっくに人間に勝ってるよ
あ、囲碁は完全情報ではないか
0058デフォルトの名無しさん2016/01/12(火) 10:32:07.71 ID:QKA6aiOh
ディープラーニング
https://www.youtube.com/watch?v=JGaHwOubY4Q
0059デフォルトの名無しさん2016/01/13(水) 15:36:36.03 ID:Zo9NZaMD
0060デフォルトの名無しさん2016/04/28(木) 05:15:52.23 ID:5n1a3Fic
deep learningを試行、実行、検証、、、実用への難しさ。

・そもそも適切な能力を計算機が用意できない。
・適切な計算機を、仕様に沿って実装し試行するために必要な資料が無い。
・お金を出せる組織が、人員と、機材、環境津繰りに関心を持たせる動機付けが必要。
0061デフォルトの名無しさん2016/05/17(火) 18:54:35.39 ID:pqG2xbzo
tensorflow使ってるやついる?
0062デフォルトの名無しさん2016/05/17(火) 19:50:13.15 ID:+VRCTEYQ
使おうとして挫折した。
0063デフォルトの名無しさん2016/05/17(火) 20:34:26.81 ID:pqG2xbzo
なんで?
0064デフォルトの名無しさん2016/05/17(火) 20:39:39.39 ID:+VRCTEYQ
APIがどんなものあるかとかどう使うのかとか裏で何やってるかとかよくわからんかった。

チュートリアルの最初のほう動かすだけで精いっぱいだった。
手書きの数字認識とかいうやつ?

俺の頭じゃとても応用まで行きそうにない。

俺がやりたいことやろうとするとデータも自前で用意する必要あったし。
0065デフォルトの名無しさん2016/05/17(火) 20:44:40.30 ID:pqG2xbzo
まあ僕もディープラーニングの本読み始めたところでちんぷんかんぷんなわけだけどw
0066デフォルトの名無しさん2016/05/19(木) 09:17:54.13 ID:CQguMyaE
とりあえず環境作ってTensorFlowいれてチュートリアルが動くのは確認した。
0067デフォルトの名無しさん2016/05/19(木) 16:01:57.09 ID:aeaYVvO9
おめ
0068デフォルトの名無しさん2016/05/19(木) 17:46:40.77 ID:CQguMyaE
晩飯は鯖味噌の缶詰と納豆卵ごはんとポップコーン
0069デフォルトの名無しさん2016/05/19(木) 17:46:50.94 ID:CQguMyaE
誤爆
0070デフォルトの名無しさん2016/05/21(土) 06:32:32.15 ID:/snOG21f
0071デフォルトの名無しさん2016/05/21(土) 23:37:35.99 ID:SoAfDrue
conv3dって見たことないんだが、三次元の畳み込みって需要ないんだろうか?
0072デフォルトの名無しさん2016/05/22(日) 11:59:14.91 ID:CPIHY1S2
>>71
あるよ
動画と、ct mri なんかのボリュームデータで使われてる
動画はリカレントが多いけど
0073デフォルトの名無しさん2016/05/22(日) 14:44:57.15 ID:P1iBYgIC
>>72
オススメのconv3dできるライブラリとかあります?
0074722016/05/22(日) 16:26:27.88 ID:oy6ZtXl2
>>73
theano で使えるって聞いたことあるけど、chainer で、自前で書いた
0075デフォルトの名無しさん2016/05/22(日) 21:47:49.58 ID:heoFhUwf
DQNをマルチエージェントでやってる奴おる?
0076デフォルトの名無しさん2016/05/23(月) 22:37:49.09 ID:Lrk38yJe
ChainerってGeforce使ってないと使えないの?
0077デフォルトの名無しさん2016/05/24(火) 05:58:39.86 ID:tG8V9aJS
gpuで動かすならnvidiaじゃないとダメ
amdでは動かない

cpuだけでも動くよ
0078デフォルトの名無しさん2016/05/24(火) 17:49:21.97 ID:YEKL09an
>>77
thx
たしかにCPUだけでも動くけど、CUDAのインストールは必須なんだね
0079デフォルトの名無しさん2016/05/24(火) 23:26:30.84 ID:tG8V9aJS
いや確か必要なかったよ
0080デフォルトの名無しさん2016/05/27(金) 22:18:57.35 ID:I3xH+29f
TensorFlowでいいわやっぱ
これからの主流はTensorFlowでしょやっぱ
0081デフォルトの名無しさん2016/06/03(金) 00:44:46.30 ID:2WcDJoYf
二種類の画像で教師ありの学習をさせて画像を変換するネットワークを作ってみたいのですが参考にする論文の検索ワードが思いつきません
何か良いものがあれば紹介していただけないでしょうか
0082デフォルトの名無しさん2016/06/03(金) 09:27:09.73 ID:97QCYK8K
ごめんその説明はちょっとわからないよ
変換ってどう変換したいの?
モーフィングがしたいってこと?
0083デフォルトの名無しさん2016/06/03(金) 10:58:14.54 ID:MSa7cD3q
>>82
分かりにくい表現で申し訳ないです。
画像を必要な領域と不要な領域に分けて不要な部分を黒塗りにするとか、
点がたくさん打ってある画像からその点を点電荷と見なしてポテンシャルのマップを出すとか、
ポテンシャルのマップからそのポテンシャルのマップ上で自由に運動する粒子の存在確率マップを出すとかの類の変換がしたいです
0084デフォルトの名無しさん2016/06/03(金) 17:36:38.32 ID:aN5LLMHs
0085デフォルトの名無しさん2016/06/03(金) 20:13:59.03 ID:5JMF3atd
>>83
そういう処理なら既存の画像処理のアルゴリズムで十分実現できるのでは?
ニューラルネットワーク使うまでもないんじゃないの
0086デフォルトの名無しさん2016/06/03(金) 22:27:01.67 ID:2WcDJoYf
>>84
まだこれの全容を掴めておらず、何だか近いような違うような気がします。本腰を入れて調べてみます。
大変参考になりました。ありがとうございます

>>85
実は上であげたような類の変換を教師あり学習で覚えさせたいのです
もしそのようなアルゴリズムがあれば教えていただければありがたいです
0087デフォルトの名無しさん2016/06/04(土) 14:58:49.47 ID:UXDIE9mA
>>85
必要か必要でないかは学習でやらないと。
0088デフォルトの名無しさん2016/09/04(日) 23:26:01.48 ID:mONdSukn
なんでmnistやるときはピクセルの値を0〜1にしないとうまく学習できないんでしょうか?
0089デフォルトの名無しさん2016/09/05(月) 10:37:12.43 ID:5mBvY0S6
>>88
学習データの圧縮の影響じゃないの?
カラー画像扱うより2値画像の方がデータ量少ない。
しかもその画像を万とか億単位で学習させなきゃなんない。その結果を使って認識してる。

どうしてもカラー扱いたいなら、学習データからrgbの3ファイルに分解して3原色毎の学習させて、上位段を3原色の認識結果を更に学習させたらいいんじゃね?

これで信号機の配置順に関係なく正確に判別出来ると思うけどなぁ。色判別必要な認識からちょっぴりエスパーしてみたw
0090デフォルトの名無しさん2016/09/05(月) 11:46:45.72 ID:a8y+W5+g
質問者も回答者もワケわかってなくて失笑
mnistすら回したことない人がこのスレにいるのも不思議
質問者が言ってるのは二値ではなく最小0最大1のこと

別に元データのように256段階でも精度はでるが、
使ってるサンプルプログラムが0から1を受け入れるように書かれてるだけの話
大方chainerあたりなんだろうけど
0091デフォルトの名無しさん2016/09/05(月) 11:49:13.13 ID:a8y+W5+g
mnistにはそもそもカラーデータなんて無い
グレースケール256段階の手書き文字
ここが2chでよかったね
mnistのデータセットの仕様知らないのは機械学習を知らないのと同義
0092デフォルトの名無しさん2016/09/05(月) 21:55:18.95 ID:Lj6hNxLa
0..1の範囲だと扱いやすいから、そうしてるだけっていう
0093デフォルトの名無しさん2016/09/05(月) 23:56:52.51 ID:bYu8x5lJ
>>90
>>92
kerasの畳み込みニューラルネットをjuliaから呼び出した時の話なんですけど、255で割るのを忘れて実行すると全く学習できなくなってしまったんです。255で割ったらすんなり学習しました。
今指摘されてPythonからの呼び出しで255で割らずに実行したら割った時より学習が遅いものの、たしかに学習しているのを確認しました。
なんだかよくわからなくなってきたのでもう一度コードを確認してみます。ありがとうございました。
0094デフォルトの名無しさん2016/10/11(火) 19:19:53.07 ID:CZ3vDXhT
「慶應ミスコン中止」の陰に1年生女子「集団強姦」 加害学生を直撃!
週刊文春 10月11日(火)18時1分配信
http://zasshi.news.yahoo.co.jp/article?a=20161011-00006659-sbunshun-soci

「慶應ミスコン中止」の陰に1年生女子「集団強姦」 加害学生を直撃!
事件現場
 10月4日、“女子アナの登竜門”とも称される「ミス慶應コンテスト」の中止と、同コンテストを企画・運営する公認学生団体「広告学研究会」(以下「広研」)の解散が発表された。
 慶應大学側は、「告示文」においてその理由を「未成年飲酒」によるものとだけ説明したが、小誌取材により、大学側が明かさなかった「広研」の男子学生が引き起こした重大な事件が明らかになった。
 事件が起きたのは9月2日、現場となったのは、神奈川県葉山町内にある広研の「合宿所」だった。事件の全貌を知る広研所属の学生が語る。
「この日は、広研が夏の間に運営している海の家の撤収を行う作業のため、6人の男子学生が合宿所に泊まっていました。作業終了後、
酒を飲むことになり、呼び出されたのが6人と顔見知りだった1年生のA子さんです」
 そして深夜、男子学生たちは酒で意識のなくなったA子さんに襲いかかったのである。しかも、あろうことか、その様子を別の学生が撮影し、実況まで行っていたという。
 男子学生の一人は小誌の直撃に対して最初は偽名を名乗ったが、「何も答えられないです」と言いながら、本人であることを認めた。
「謝罪の気持ちは本当に……。時が来たら連絡します」と言い残すのが精一杯だった。
 一方でA子さんの母親は、小誌取材に対して、警察に被害届を提出したことを認めた。
 上記事実の確認を慶應大学に求めたところ、「今回の解散命令の基礎になった事実は告示文に記載されているとおりです。なお、
今回の処分は、関係者に複数回にわたる事情聴取を行う等、大学として可能な限りの調査を行ったもので、適正なものと認識しております」との回答があった。

 詳細は、10月13日発売の「週刊文春」10月20日号で報じている。

<週刊文春2016年10月20日号『スクープ速報』より>

http://i1.wp.com/media.sairilab.com/wp-content/uploads/2016/10/keioumi3_4.jpg?w=650

またチョーセンジンか。 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f)
0095デフォルトの名無しさん2016/10/19(水) 18:32:39.44 ID:z6SV86VM
画像識別にはCNNだそうですね。

動画識別で、時間による画像の変化量で、識別(Classification)したい場合には、どうするのでしょうか。
CNNでできるのでしょうか。
0096デフォルトの名無しさん2016/10/19(水) 19:26:51.62 ID:1/niUrnV
>>95
何の変化量?
0097952016/10/20(木) 08:48:38.11 ID:/TrVie8s
生体組織を動画でとって、
乾燥の仕方、
乾燥しやすい乾燥しにくい、とか、水分や油分足りてる足りない、
を分類したいです。
0098デフォルトの名無しさん2016/10/20(木) 12:52:53.66 ID:7OZpPgNo
>>97
従来から画像処理でやられてきたことなんでしょうか?使われてきた特徴量とかの知見なしにいきなりCNNはかえって遠回りかも?
0099952016/10/20(木) 14:52:12.77 ID:/TrVie8s
従来の画像処理がイマイチだったのでDNN、という流れです。
0100952016/10/20(木) 18:16:18.20 ID:/TrVie8s
オプティカルフローで1枚にしてCNNする
か、
複数画像を3D CNNする
か、
といったところなのでしょうか。
0101デフォルトの名無しさん2016/11/09(水) 09:49:10.29 ID:wf/Zu1HH
質問です:

画像データを、教師なし学習でクラスタリングしたいと思っています。

機械学習〜>Deep Learningの流れで、
教師なし学習よりも教師あり学習が主流になってきっぽいのですが、
前述のDeep Learningで画像データをクラスタリングするのは、どうやるのでしょうか?
0102デフォルトの名無しさん2016/11/15(火) 00:17:52.71 ID:bRYrTv2m
>>101
いろいろあるけど、autoencoder 使って、その後クラスタリングとか
0103デフォルトの名無しさん2016/11/15(火) 10:34:44.92 ID:CcaCL601
>autoencoder
って、
教師ありなんですか、教師なしなんですか?

自分あるサイトで教師なしだと思ってたら、別サイトだと教師ありとなってたり、
やはり基礎が無いといろいろと難しいですね。
0104デフォルトの名無しさん2016/11/15(火) 10:49:52.93 ID:um5udia7
それ自動生成した文章?
生成器自作したならすごいね
0105デフォルトの名無しさん2016/11/15(火) 10:52:38.14 ID:um5udia7
うお、俺のレスもおかしくなってる
すまんこっちの環境の不具合みたいだ
0106デフォルトの名無しさん2016/11/15(火) 12:04:25.80 ID:qudetMb7
教師ありとも教師なしとも言えるな
0107デフォルトの名無しさん2016/11/15(火) 12:10:47.90 ID:CcaCL601
kwsk、kwsk。

実はAutoencoderの教師あり学習サンプルで勉強していたのですが、本当は教師なしのクラスタリングが欲しくて。

それも単なる機械学習のクラスタリングじゃなくて、DNN的にデータ側から分類を発見、みたいな感じで。
0108デフォルトの名無しさん2016/11/16(水) 06:14:50.84 ID:jUMw3D1c
わかったから本でも買って勉強しなさい
0109デフォルトの名無しさん2016/11/16(水) 08:15:15.47 ID:SGzlZFSw
だな
もし答えても、その答えだけでは絶対理解できないはず
0110デフォルトの名無しさん2016/11/16(水) 08:35:40.48 ID:IlsMULFX
本は10冊程度読める状況なうえ、
自費でゼロから作る〜
も買いましたよ。
Kindleのみの本も持ってます。
0111デフォルトの名無しさん2016/11/16(水) 08:56:19.33 ID:SGzlZFSw
本から答えを探しなさいよ
それがいい
0112デフォルトの名無しさん2016/11/16(水) 10:27:11.75 ID:IlsMULFX
つ [d] >>111
0113デフォルトの名無しさん2016/12/18(日) 13:59:10.64 ID:9UtAQHie
これって、高校生の数学程度だと、勉強するのはやっぱりそうとう無理でしょうか?
秋葉原の橋の近くの本屋さんでパラパラめくってみたのですけど、動かすくらいはなんとかなるかもしれない、意味がよくわからないな、と。

やっぱり、大学でコンピュータをちゃんと勉強したような人じゃないと、ディープラーニングって意味がわからないものなのでしょうか?
0114デフォルトの名無しさん2016/12/18(日) 14:41:56.70 ID:rXDlfzDr
>>113
必要な数学とか統計学も一緒に勉強してしまえばいいと思うよ。
0115デフォルトの名無しさん2016/12/18(日) 15:13:46.58 ID:Vtv+m8F+
>>114
統計とかも勉強する必要があるんですか。
なかなか大変なんですね
ありがとうございます。
0116デフォルトの名無しさん2016/12/18(日) 16:02:26.11 ID:ZqV+jY/A
>>113
馬鹿でも出来る
0117デフォルトの名無しさん2016/12/18(日) 16:18:03.59 ID:rXDlfzDr
>>115
動かすだけならNVIDIA DIGITSあたりが手軽だと思うよ。
0118デフォルトの名無しさん2016/12/18(日) 17:03:17.50 ID:UVlvUqtT
意味が分からない方が幸せかもしれない
知ればあまりの制約の多さに、絶望するだろう
期待しているものには全然届かない
0119デフォルトの名無しさん2016/12/18(日) 17:20:31.96 ID:Vtv+m8F+
>>117
そうなんですか。
買ってきて、パラパラ読んでる本だとPythonでやってみようとあるので、使わなくなったパソコンにPythonいれてやってみようとしてます。
専用のハードまで買うのはなかなか難しいですね。
0120デフォルトの名無しさん2016/12/18(日) 17:50:47.06 ID:vNBF0HWF
>>118
まだ本を買ってきて、これから読みはじめるとこなので、挫折できるほど進んでません。
どう言うことができるようになる技術なのか、ある程度わかるようになれたら、いいなぁというのが今の目標です。
0121デフォルトの名無しさん2016/12/27(火) 07:26:43.41 ID:lMgzZnl1
http://blog.livedoor.jp/itsoku/archives/50309292.html

おまえらがChainerばっかり使うからKerasの作者が困惑気味やでw
0122デフォルトの名無しさん2016/12/27(火) 09:56:31.36 ID:6hdNCFW6
だってkerasで凝ったことしようとするとすぐにtheanoが顔出すんだもん
0123デフォルトの名無しさん2016/12/27(火) 10:39:29.16 ID:Bf+HgAVn
H265の検証→アニメ
VR→アニメ
顔認識→アニメ
画像生成→アニメ
なぜなのか
本当にがっかりする
0124デフォルトの名無しさん2016/12/30(金) 18:51:53.97 ID:ZgNuhYtJ
>>114 石村貞雄・園子の御夫妻が「ディープラーニングのための数学」とか東京書籍より出してくれんかな。
0125名無し集中2016/12/31(土) 05:27:18.79 ID:FEv/nVIb
>>114
統計やらないといけないというのは
SQLには集合(集合論理、集合演算、述語論理)やらないととおなじなんでは
事典をパラパラめくるのは気づかせられるときあるけど

数学も行列演算だけでよいきがする
0126デフォルトの名無しさん2016/12/31(土) 07:23:11.84 ID:KFIMAqv2
行列演算よりは線形代数
それよりも最適化数学かな
0127名無し集中2016/12/31(土) 08:04:41.50 ID:FEv/nVIb
>>126
ヤコビアンやらヘッシヤンやらナブラとかだっけ?
そこらは暗号アルゴリズムがライブラリで実装かつ隠蔽されるみたいにユーザより開発者はきにせんでいいのちゃうかな

MITやStanfordやのサイトのぞくとMLでそこらバリバリでてくるけど
Stanford Prof. Ng のMLのCoursera だとOctaveで行列演算がメイン、 Jacobianや偏微分ちらり、最適化降下アルゴリズムはライブラリ呼び出し

DeepLは必要なってくるのかな
0128デフォルトの名無しさん2017/02/21(火) 06:44:15.99 ID:cHv/d1eA
2月は卒研で何も出来ない
3月締め切りのいい会議ないものか
0129デフォルトの名無しさん2017/02/22(水) 10:55:57.14 ID:DJHoee+2
CNNしようとすると、フィルタの可視化とかしたいので、やはりRGB(BGR)ですよね。
それだと3バイト。
しかしながら、画像に4方向(上下左右)を持たせたいのですが、どうするのでしょうか。
0130デフォルトの名無しさん2017/02/26(日) 18:02:09.76 ID:jXsMNIOT
>>129
とりあえず16バイトぐらいもっといたらええやん
いらんかったら使わんでええし、足りんかったらまた言ってや
0131デフォルトの名無しさん2017/02/27(月) 09:52:47.98 ID:pdxlWRuM
>>130
16バイトの画像形式ってありましたっけ?
CNNのフィルタを可視化したいので、画像形式じゃないと、困ったことになります。
0132デフォルトの名無しさん2017/02/27(月) 11:44:45.34 ID:u4jqLtHp
>>130
1組の4枚の画像をそれぞれ別のCNNに送り込んで出力層で加算して
softmax関数を通す方が取り扱いが楽だと思う。

>>131
16バイト画像形式可視化をコーディングできないならCNN出力合成も無理かな?
それなら4方向の画像を2x2に並べた1枚の画像で学習させればよい。

機械学習スレに学習した画像を可視化する記事がある。
http://echo.2ch.net/test/read.cgi/tech/1487433222/19
0133デフォルトの名無しさん2017/02/27(月) 13:26:59.27 ID:pdxlWRuM
>>130

>1組の4枚の画像をそれぞれ別のCNN softmax関数を通す

そういったことが実現可能なんですね。
それがやりたいことです。

>可視化をコーディングできないなら

C++とかならいつもやってますが、
実は、M(ry、とかでやってるので、
専用関数を使うのですがその中身を見るとゴリゴリで、
慣れてなくてw

>記事

読んでみます。
0134デフォルトの名無しさん2017/02/28(火) 09:16:26.43 ID:h7EYgDvk
>>130

>4方向の画像を2x2に並べた1枚の画像で学習させればよい

読み直したら、さらにこういう方法もあるですね。
CNNだから、画像間の関連は捨てられないものと思っていたのですが、
同じ形式で4枚並べるのはアリなんですね。

有効な解決策が2つ(以上)あるところが、NN的というか、おもしろいですね。
0135129=133=1342017/02/28(火) 09:22:58.65 ID:h7EYgDvk
ごめんなさい、
アンカー「>>130」と書いたのは間違いで、正しくは「>>132」でした。
0136デフォルトの名無しさん2017/03/04(土) 12:29:25.59 ID:GRvQ2lmz
昨日プライムニュース(BSフジ)でなんかやってたけど
深層学習ってそんなにすごいの?
0137デフォルトの名無しさん2017/03/04(土) 12:34:37.92 ID:Mcbf6guf
必殺!ディープラーーニング!!
0138デフォルトの名無しさん2017/03/04(土) 12:35:51.65 ID:GRvQ2lmz
予算どり
0139デフォルトの名無しさん2017/04/04(火) 23:40:44.33 ID:d4Y6801f
Openmpのoffloadingでgpu計算出来るならcupyもtensorflowもいらなくね
新着レスの表示
レスを投稿する