OFFICE風太郎

日本のエンジニア、風太郎です。問題解決が飯のタネです。仕事や生活で問題解決を活用したり、問題解決の基礎となる統計とかデータ分析の話をしていきます

【使ってみた】Ipad Proを充電してみる(USB-C ACアダプタとモバイルバッテリ)

モノをよく紛失する風太

 風太郎はよくモノを紛失します。今回はIpad Proの付属の充電器とケーブルを紛失しました。当面はMacBookProのACアダプタで充電できますが、やっぱり不便です。
 そこで、ACアダプタとモバイルバッテリ、ケーブルを購入してみました。その充電したときに電圧、電流を測定したので皆さんの参考になるかと思い公開します。

USB-Cの魅力

 USB-Cは逆差しOKっというのが最初の情報でした。”なんだそんなもの”と思いました。しかし、実際に発売されたのを見ていると、いろいろな機能が詰め込まれたものでした。USBという名前はついていますが、もはや別物です。
 今回は多くの機能の中で、「充電」ということにこだわって説明してみます。
 スマホ時代やタブレット時代になって、バッテリの容量は拡大し続けています。従来のUSBは5Vでした。これの電圧の上昇に対応しているのがUSB-Cです。(厳密には規格が異なりますが、実質USB-C端子の製品のみ対応しています)
 電力は電圧X電流なので、電圧が高くなることにより多くの電力を供給することができます。そのため急速充電に有利です。

用いた機器と結果

 一番下ににそれぞれの機器を示します。(AMAZONで購入しました) 多くのケーブルを購入したのは「相性問題により充電しないのではないか?」といったことです。 結論からいうと下記の写真のように ACアダプタでは15.4V 1.78A、モバイルバッテリでは12.0V 1.36Aで充電することができました。(モバイルバッテリに付属のケーブル含む)計測のばらつきでしょうか?最後の桁が少し変動します。 また、MACPRO15インチにも電力供給することができています。

f:id:FUTARO:20190203164227j:plain
モバイルバッテリ
f:id:FUTARO:20190203164258j:plain
ACアダプタ

結論

 USB-Cの充電に置いて、外れケーブル(充電不能ケーブル)というものは少ない。ということです。
 品質管理の世界では、この時少数のケーブルでOKだったから「外れケーブルはない」と言ってはいけません。たまたま当たりのケーブルだったかもしれないからです。安心材料として記事を読んでください。

(購入当時は黒)

Kindleは危険!?買い物依存症の恐怖?(問題解決の視点から)

本好きあるある

 本が好きな人、よく購入する人と話すると「買ったけど読んでない本てあるよねー」というと「あるある」と答えます。そういう読んでいない本が溜まってくると、やべーな!という気になります。俗にいう「積ん読」っていう状態ですね。

電子書籍の恐怖!?

電子書籍Amazon(=Kindle)をメインで使っています。それ以外に技術書はmDRMの関係からそれぞれのサイトで購入することが多いですね。今回ふと「未読が多いなぁ」と思ってKindle限定で数えてみました。20冊以上ありました。中には「坂の上の雲(8巻合本)」っていうのがあり、それも一冊と数えた上です。
Kindle本の総数は300冊程度あります。一割弱が読んでいない(または読んでいる途中)の本です。これはやばい状況じゃないか?と気がつきました。
そもそも気がついた理由がまずいです。気がついたのは「やたらカードの引き落とし金額が高い!」というきっかけでした。びっくりするぐらい買い物してしまったわけです。

一種の買い物依存症?(問題解決の視点から)

Amazonには相当な金額を払っています。さらにKindleにまで毟(ムシ)られているのか?. という状況になってしまいました。こういうのは癖になると大変なんですよね。以前やめる習慣という本を紹介しました。

何かやる前に何かをやめようーーマンガでわかる「やめる」習慣 - OFFICE風太郎

わざわざ本になるといういうのは「やめる」ということは、それだけ難しいことなんですよね。実際に今日も日替わりセールで買ってしまいました。
「おいおいそれはダメだろう?」という気もするけど、価格的にはさほど高額ではありません。問題はどこにあるのでしょうか?現象としては「未読の本が沢山ある」ということです。
 さてこれのどこに問題があるのでしょうか?未読=無駄にお金を使っているということです。これは問題でしょうか?この現象に伴う問題となりそうなことをあげていきましょう。

  • お金が無駄になる
  • 本を読まないことにより本が無駄になる。
  • ストレスがたまる

そういう風に考えてみました。しかし、ストレスといってもさほどかかりません。電子書籍なので、地球の資源が無断時なることはありません。転送するエネルギーぐらいものでしょうか?
 心配なのはお金が無駄になることですね。今回もカードの引き落としで驚きました。
 その内容をよく見ると専門書です。これを相当量購入してえらい目にあいました。これはKindle以外が多くて、管理しにくかったのも一因です。
 この点に注意すればさほど困らないでしょう。
 と開き直ったところで、もう少し時間軸を進めてみます。問題解決の中で考えることの一つに時間軸です。「今はよくてもこのままいくとやばいことになる」とうことを考えないといけません。
 今は「カードの支払いで驚いた!」なんていう程度で済んでいますが、このままいくとどうなるんだろう?そう、買い物依存症の恐怖があります。そういう人は、買い物することにより心の平安が保たれるらしいです。

買い物依存症にどう対応するか?

 正直、決定的に効果的な対応策は思いつきませんでした。一つの方法として、Amazon以外のサイトはプリペイドにしようかと思っています。これも決定的な方法でなく、Amazonという穴もあるし、本格的に依存してしまえばその場でチャージしてしまうでしょう。今後依存症に気をつけながら電子書籍を購入していこうと思います。
 結局対策案は思いつきませんでした。ただ、問題解決を行う身として大事なことは、「時間軸も考えておく」ということです。
 今回の場合に問題が解決しなかったのは、ぼんやりと「問題」を感じているだけで、それを明確にして、問題点として落とし込むことができなかったことです。こういうことで問題解決がうまくいかなかったことは多くあります。

 と書きながら、、下書きから今日の公開までどれだけ日替わりポチったろう?

Ipad Pro 11は、最強の補助脳か?

まるペだった過去

 ペリーローダンというSFシリーズはご存知ですか?無茶苦茶長い海外のSFシリーズです。(本国では数千巻のオーダ)
 このシリーズも読まなくなって数十年です。お年玉全部つかって既刊全部揃えたのが懐かしい思い出です。
 その中の一人にアトランという人がいます。この人は補助脳(記憶が不正確で言葉は違うかも?それでも以下補助脳で統一)と言うものを持っていて、いろいろ知識や論理的思考を補助してくれます。
 これは、風太郎の人生に影響を与えた小説の一つで、この「補助脳」っていうのにずっとこだわり続けていました。やたらIT機器にこだわる傾向はこの補助脳を手に入れたいためです。
 2019年の時点で言えば「転生したらスライムだった件」の”大賢者”様などですね。こう言ったものを手に入れたいとずっと考えていました。

仕事に役立つ補助脳(第2の脳)

 仕事をしていると次のようなことができると助かるなぁと思います。

  • 必要な知識がすぐに手に入れられること
  • 過去の経験の記録がすぐにひっぱりだせること
  • 難解な情報(数値、文章、画像など)を整理してくれること
  • 未来の予想ができること

 です。これらのことができるのがコンピュータではないか?と昔から考えていました。その後アランケイの提唱した ダイナブック - Wikipedia を知るに至っては「これが欲しい」と思うようになりました。

極楽2号とIPad

 大昔はノリのいいパソコン雑誌がいくつかありました。ある雑誌では「スカリーを追い出して、ジョブスがApple復帰!」なんていうパロディ記事がありました。これは驚くことに、後日実際にそうなりました。  その他に「モスバーガーでパソコン販売!マックと異なり出来合いのものではなく、注文してから組み立てます!」なんていう後のBTOパソコンネタみたいなのもありました。
 その中でも歴史あるのは「年刊AhSKI!」でしょうか?確かこの中に「極楽2号」なるものがありました。
 この極楽2号というのは今でいうタブレットパソコンです。IPadが出た時にはすぐに極楽2号が思い浮かびました。極楽2号はIPadに搭載されている技術の多くを予見しています。ただ、無線LANは想定していなく、プリントアウトはコピー機タブレット画面をコピーするというものでた。当時はこのアイデアは秀逸と思ったものです。
 そう言ったこともあり、AndroidタブレットIPad2以降のIPadを購入してきました。KindleHDXなんていうのも購入したことがあります。
 しかし、そのタブレット遍歴の中でも不満が多くありました。キーボードがない、ペン対応していないなどです。
 そう言ったことがすべて解消されたのがIPadProと考えました。そして、とうとう、IPadPro11(LTE)を購入しました。

実際の使用感

 N回払いのローンで購入したIPadProです。当然、大活躍、、、のはずですが、実際はまだまだ活躍していません。これは、風太郎がまだ慣れないことが多いためと考えています。以前より使い続けたノートやルーズリーフの方が役に立っているという状況ですね。。。
 巷で喧伝されているように「ノートの代わりになる」というためにはやはりそれなりの慣れが必要のようです。結局テキパキとメモを取るのはルーズリーフノートです。これはあとでスキャニングして記録しています。
 また、キーボードもちょっとした問題がありました。PDFにペンで書き込みながら、キーボードでメモを取った時です。キーボードを使うためにIpadを立てながらキーボード打ち込みというのが結構大変でした。これは想定外でした。
 対応案としては二つ考えています。Bluetoothキーボードを購入するか、それともペンだけで行うか?どちらかです。

結局Ipadは役に立つのか?

 正直まだ結論はでません。一言言えるのは「今日買った、明日からはバリバリ使いこなせて役に立つ」とういうものではなさそうです。やはり慣れとか訓練がいるようですね。ちょっとずつ使用感などを書き込んでいこうと思います。

改善が進む組織へ変える方法

改善マインドなんて1000000回言ってもつくもんじゃない

 改善を仕事にしている風太郎です。うちの会社は改善マインドがなくて、どうしたらいいですか?と他社の方に聞かれたりします。  ところが話してみると、やっていることは「改善の成果をあげる」という目的に対しての活動が多くなっています。問題解決の視点からいうと、「改善の成果をあげる」と「改善マインド」と言うものはいうのは異なります。 改善の効果とは定量的なものでわかりやすいものです。反面、改善マインドというのは「改善をしたい」という気持ちです。その違いを明確にすることからはじまります。

改善は本能ではない、癖付けだ

 多くの会社は、改善提案はその効果で判断する。と言っています。 これは業務として改善の良し悪しを判断するということは正しいです。しかし、改善は成功ばかりとは限りません。また、うまい改善を行うためには慣れも必要です。
 いい改善結果が欲しい、そのために従業員には常に改善を考えて欲しい。そう考えている会社が多いのでしょう。
 じゃ、みんな黙っていても改善するのでしょうか?本能である「食べること、寝ること」などは黙っていても行います。しかし、「改善本能」というものがありません。通常は「改善、改善、改善・・・・」と四六時中考えているわけではないのです。しかし、よい改善を行うためには着眼点が大事です。そのためには、いつも改善について考えている必要があります。そうするためには「完全癖」が必要です。あるコンサルタントの方から某社の社員は「改善中毒」だと言われたことがあります。

改善の効果を評価したのでなくてまずは改善に取り組んだことを評価する

 改善というのは発明とか、イノベーションとかいうものに近いです。ある人がある日突然、いいアイデアを思いつくということがあります。 しかし、それを組織として行い続けることは非常に大変です。その理由は100%成功するなんでだれも保証していないからです。  改善を進めるためにはチャレンジした回数(改善に取り組んだ回数)X成功率を上げていく必要があります。
 また、
 改善にかかる費用+改善失敗によるロスコスト<会社が許容できる費用  である必要があります。
 そして、このようなことを意識しながら、まずは改善回数、もう少し正確にいうと改善にチャレンジした回数を評価して向上していくことが大事です。
これを外国人に話ししたら結構衝撃的な内容だったようです。あるコンサルタントは即日ブログに書いていました。 「赤ちゃんが立とうとした時に親はどうしますか?立てなかったと非難しますか?ちゃんと歩けといいますか?そんなことないですよね・・・」
と確かこういう内容だったと覚えています。実は赤ちゃんの例えは風太郎が話したそのものの例えでした。

どうやって評価するか?

 本来改善というのは日々の仕事の中で行なっていくものです。そのため、本来は日々の業務を見ていくべきですが、実際にそういうことはいろいろな制約からできません。また、そんな詳細に観察されても気持ちが悪いと思いませんか?
 そのため、多くの会社では改善提案というものが出されています。基本はこの件数を評価すればいいと考えます。ただ、評価する方としても、相手のレベルに合わせていく必要があると思います。新人が初めての改善提案を出した時は、内容はともかくとして褒めてあげることが必要です。一方ベテランが、新人レベルのものをたくさん出していたら質を上げろと指導すべきでしょう。成功率や効果を上げるためにはその質が大事になってきます。
 まずはなんでもいいから数を出す。そして、それを習慣化していく。その次に質になってきます。

改善マインドと改善成果の違い

 こう言ったことを述べないといけないのは、「改善マインド」という言葉を使ったために、「目標値」と言うものの定義を明確にできなかったためです。「マインド」っていうと心の問題ですが、それを定量化するにはどうしたらいいか?と考えることが大切です。
 例えば、「1件/月以上改善提案する」という目標値とかです。そうすると、明らかに「改善マインド」と「改善の成果」というものは異なることがわかります。
 問題解決が身についてくると自然に客観視もできるようになるので、こう言った間違いは少なくなります。
 もっとも、どんな目標値でも「とにかく数値目標すら満足すればいい」とか「目標値達成にメリットを感じず低調になる」と言うことがあります。
 これについても、いくつか考察があります。別の機会に紹介させていただきます。

データサイエンティストの役割

今更ながらデータサイエンティストを名乗ろうか?

 なんか世の中データサイエンティストっていうのが花盛りです。
 風太郎はその言葉が流行る以前から、産業における統計学の活用を専門にしています。
 それでも、「データサイエンティスト」と名乗りたくない面もあります。この言葉だと「単にデータを分析する人」っぽいじゃないですか。それであまり言いたくないのです。分析者はデータ分析を武器としてビジネス課題を達成する人であるべきと思っています。そのため、「問題解決屋」と名乗っています。そのこととから、あまりデータサイエンティストと言いたくなかったのです。ところが昨今猫も杓子も「データサイエンティスト」と叫び続けているようです。
 そのアンチテーゼみたいな形で「問題解決屋」としてこのブログ始めてみました。そう言ったことから「データサインティスト」というのか「問題解決屋」と名乗るか悩んでいます。

データの産業への活用

これは決して新しいことでなくて、歴史上一番古いのは19世紀にビールのギネス社が活用していました。有名なゴッセル氏は統計家して採用されたので、その時にはギネス社としては活用の有効性がわかっていたのでしょう。
 またフィッシャーも20世紀初頭です。また、テストの偏差値にも用いられている正規分布ガウス分布、ベルカーブ)は18世紀の発案です。このように統計活用の歴史は古いものです。
 その後は熟練工のいない対戦中のアメリカで採用されて、日本にもデミング氏が広めました。(参考文献1)
 デミング賞というは改善の活動として有名です。しかし、デミング氏が広めたのは統計的品質管理でした。これはデミング氏の講演録に記載されています。幸い風太郎はそれを読むチャンスに恵まれました。デミング氏はシューハート(管理図で有名な方)氏のお弟子さんです。そのため、管理図関係の話も言及していました。

仕事に必要なことは?

 分析をした結果、どのような利益ができるのか?これは大変重要なことです。ただ、だれでもそうじゃないといけないとは言いません。当然、論文を書くような仕事を行う人、論文から実装トライを行う人などが必要です。しかし、こう言った人たちの給料を稼ぐためにはどこかで利益を出す必要があります。
”参考文献2"はそのようなことが書いてあります。この本は企業に研究者のような人は不要というような意味合いともとることができます。これは言い過ぎだとおもいますが、放置するとひたすら意味のないデータ分析を行うことになりかねません。

問題解決の重要性

 「問題解決」っていう言葉が誤解を招きます。問題解決の本質は”どこに手を打つか?”を見つけることにあります。これは「問題解決」だけでなく、多くの方がそう述べています。先ほどの参考文献の河本先生、CRISP-DM(ビジネス理解が最初に来る)、品質工学の田口玄一先生(この先生は”あなたの本当にやりたいことは何ですか?”と尋ねます)、田口先生のお弟子さんの矢野先生(”それは願望だ、技術課題は何だ?”と尋ねます)、TOC(制約理論)では「何を何に変える?」という言葉があります、これも同じ意味でしょう。
 そういう点で分析者の必要なことは、どういう分析を行えば問題が解決するか?利益が上がるか?ということです。それをよく考えて分析を行うことがデータ分析者の役割だと考えます。
 同じような主張をはてなでも見つけました。
kawaguti.hateblo.jp 風太郎の主張と異なっているのは、データサイエンスとプログラマの違いの他に、「知識」なのか、その活用「プロセス」なのか?というところです。これはこの方が間違っているのでなくて、表現の違いのようなものだと考えます。

今後のデータ分析の必要性

 今データ分析やプログラミングの参入障壁が下がっています。この点は別途論じていきたいと思います。今後は実務者がデータ分析や分析のためのプログラミングを記述したりしていくことになるでしょう。この点については今後説明していきたいと考えています。

参考文献1

知の巨人 ドラッカー自伝 (日経ビジネス人文庫)

知の巨人 ドラッカー自伝 (日経ビジネス人文庫)

参考文献2

最強のデータ分析組織 なぜ大阪ガスは成功したのか

最強のデータ分析組織 なぜ大阪ガスは成功したのか

同人誌と「なろう」とビジネスモデル 問題解決の視点から

風太郎の連休

 風太郎は連休のある仕事です。連休とはいえやることたくさんです。毎日の英語の勉強の他、いろいろな勉強、読書。部屋の掃除などいっぱいあります。こういう時に限って小説を読みたくなります。
 昔の重い本はきついので、軽い本、でもライトノベルはあんまり読みません。理由はコストです。1冊30分ほどで読んでしまうので高価な娯楽に含まれてしまいます。
 そこで、助けてもらってているのは小説家になろうです。このなろうを読んでいると「隔世の感」があります。

同人誌はお金を払うもの

 こういう概念を持つのはかなりの年配でしょう。
 今の時代からは信じられないと思いますが、同人誌は受益者負担として、執筆者が執筆量に応じて印刷費を負担していました。SF作家に関して言えば「宇宙塵」という同人誌から多くのSF作家が生まれました。かなり良い作品も多いといわれていました。 風太郎は、光瀬龍先生の「派遣軍還る」の同人誌版と商用誌版を読みました。同人誌版は面白く、商用誌版はつまらなかったと覚えています。記憶には同人誌版のストーリーの一部と商用誌版がつまらなかったことだけが残っています。
 ここでじじぃが昔話をするのは簡単な事です。ただ、それはつまらないので「ビジネスモデル」の観点から考察してみます。

過去の同人誌が目指したことは?

 一部の人は「書きたい(描きたい)」という衝動があるようです。そしてそれを見てもらいたいという衝動もあったようです。そこから同人誌が生まれました。その後コミック系中心に即売会が発生し、一種の楽しいコミュニティーも出てきました。コスプレなんかも即売会から発生しています。
 コミュニティを楽しむのと書いたものを読んで欲しい、読んでみたい。というのが主体でした。だいたい元を取ることができずに、赤字を抱えているのが当然でした。その時に噂になっていたのが「同人誌で稼いでいる」という人たちでした。
 どういう風に稼いでいるかというとアニパロ本、やおい本、今でいう「薄い本」です。その手の本はページが少なく、部数が多く、高額で売れるため、利益になっていました。そのため、創作系がどんどん割合的に減っていきました。
 その結果、「創作系オンリー」や「招待制」などの即売会もありました。

ビジネスモデル=問題解決

 その後創作の場としてのPixivや小説家になろうというサイトがでてきました。これを問題解決の視点から考えてみると大変面白いものです。
問題として、創作者の発表の場が限られてきた。と定義します。
原因系を探っていくと問題点としては二つ(後知恵だから簡単に出ますが、リアルはもっと大変でしょう)

  • 発表の場制限されてきた
  • 顧客が減ってきた

 いや、そうじゃないだろう?という意見もあると思います。ただ、顧客が制約と考えると上記のような事象が発生していたと考えます。
そう、「顧客が制約」ということが真因ではないでしょうか?そう考えると、問題点を解決するためには「顧客を増やす」というのが対策になります。顧客を増やす方法は単純なのは「安くする」究極は「無料にする」です。
 もう一つ大事なことがあります。「良いモノ」である必要があります。この良いものを作る方法は「良いプロセス」と「とにかくたくさん作って選別する」と言う方法があるでしょう。
 小説家になろうなどのビジネスモデルは「たくさん作って」「無料で顧客を集めて」「顧客に選別してもらう」というサイクルでできたと考えられます。

ビジネスモデルと問題解決

 なろうを作った人がこういう思考プロセスで行ったかどうかわかりません。問題解決の視点から、ビジネスモデルの構築を考えてみました。こういう考え方をしたら新しいビジネスモデルができるのではないか?と考えます。
 実はこれは問題解決のテンプレに乗っけて後付けで考えたんです。「顧客が制約」っていうのはテンプレなんです。だから、「顧客を創造する」方法というのがあって、単純には”安くする”ですよ。
 この事例を別の機会にも考察しています。

データサイエンスとその環境について(無料環境)

突然のデータサイエンス?いいえ違います。

 突然データサイエンスの話を始めました。実は突然じゃないんですよね、元々風太郎はそっちの方が専門です。
 ただ、このデータ分析に「問題解決スキル」と「プロセス構築スキル」がないと役に立たないんですよ。いくら、深層学習しようが、機械学習の技をかけようが、仕事としての成果につなげるためには、問題解決の問題点の解消に向けて行わないとダメです。また、プロセスをしっかりしないとやり直しや、無駄な作業が大量に発生します。

どういう環境で行うか?

 今まで会社ではGPU環境で行なっていました。自宅学習用はMACです。ちょっとだけAzureも使っていました。まわりにはGPU環境(コンシューマ用の1080や2080)を自宅に持っている人もいます。電気代が一割上がったとか、夏場は換気扇付近に放熱器取り付けると言っています。
 これらの環境は「高価」ですよ。ざっくりと最低20万円、30〜40万は必要でしょうか?それを出すのはきついです。また、置き場所も大変です。場所も必要ですし、熱・音・光もあります。専用部屋が欲しいぐらいです。そう言った知り合いは「一戸建て」「独身」のどちらかでした。
 そこでクラウドでしょうか?一時間百円程度で借りられます。10万円分で1000時間です。これを安いと見るか高いと見るか悩むところです。ものすごく重い処理をしていたら大赤字です。 ちょっと見積もってみました。  パソコン工房https://www.pc-koubou.jp/ )で、RTX2070、16RAM、i5(6コア)、500GSSD(PCI)+1THDDで約23万です。 初心者がちょっとやってみようという金額ではありませんね。 やっぱりクラウドでやってみましょう。 ここではAzureとGoogleColabotryを取り上げてみます。 GoogleColabotoryは有名なんですがなんか情報少ないです。

Google Colaboratoryは”無料”のGPU開発環境

 なんといっても無料です。(情報とか取られているので無償じゃないかも?ですが)しかもGPUが無料です。 12時間連続までという制限はありますが、それでも約1200円相当です。

導入されているライブラリは次の通りです(CPU)  Package Version


absl-py 0.6.1
alabaster 0.7.12
albumentations 0.1.8
altair 2.3.0
astor 0.7.1
astropy 3.0.5
atari-py 0.1.7
atomicwrites 1.2.1
attrs 18.2.0
audioread 2.1.6
autograd 1.2
Babel 2.6.0
backports.tempfile 1.0
backports.weakref 1.0.post1
beautifulsoup4 4.6.3
bleach 3.0.2
bokeh 1.0.2
boto 2.49.0
boto3 1.9.67
botocore 1.12.67
bs4 0.0.1
bz2file 0.98
cachetools 3.0.0
certifi 2018.11.29
cffi 1.11.5
chainer 5.0.0
chardet 3.0.4
Click 7.0
cloudpickle 0.6.1
cmake 3.12.0
colorlover 0.2.1
community 1.0.0b1
contextlib2 0.5.5
coverage 3.7.1
coveralls 0.5
crcmod 1.7
cufflinks 0.14.6
cvxopt 1.2.2
cvxpy 1.0.11
cycler 0.10.0
cymem 2.0.2
Cython 0.29.2
cytoolz 0.9.0.1
daft 0.0.4
dask 0.20.2
datascience 0.10.6
decorator 4.3.0
defusedxml 0.5.0
dill 0.2.8.2
distributed 1.25.1
Django 2.1.4
dlib 19.16.0
dm-sonnet 1.23
docopt 0.6.2
docutils 0.14
dopamine-rl 1.0.5
easydict 1.9
ecos 2.0.7.post1
editdistance 0.5.2
en-core-web-sm 2.0.0
entrypoints 0.2.3
et-xmlfile 1.0.1
fa2 0.2
fancyimpute 0.4.2
fastcache 1.0.2
fastdtw 0.3.2
fastrlock 0.4
fbprophet 0.3.post2
featuretools 0.4.1
filelock 3.0.10
fix-yahoo-finance 0.0.22
Flask 1.0.2
folium 0.2.1
future 0.16.0
gast 0.2.0
GDAL 2.2.2
gdown 3.6.0
gensim 3.6.0
geographiclib 1.49
geopy 1.17.0
gevent 1.3.7
gin-config 0.1.2
glob2 0.6
google 2.0.1
google-api-core 1.7.0
google-api-python-client 1.6.7
google-auth 1.4.2
google-auth-httplib2 0.0.3
google-auth-oauthlib 0.2.0
google-cloud-bigquery 1.1.0
google-cloud-core 0.28.1
google-cloud-language 1.0.2
google-cloud-storage 1.8.0
google-cloud-translate 1.3.2
google-colab 0.0.1a1
google-resumable-media 0.3.1
googleapis-common-protos 1.5.5
googledrivedownloader 0.3
graph-nets 1.0.2
graphviz 0.10.1
greenlet 0.4.15
grpcio 1.15.0
gspread 3.0.1
gspread-dataframe 3.0.2
gunicorn 19.9.0
gym 0.10.9
h5py 2.8.0
HeapDict 1.0.0
html5lib 1.0.1
httpimport 0.5.16
httplib2 0.11.3
humanize 0.5.1
hyperopt 0.1.1
ideep4py 2.0.0.post3
idna 2.6
image 1.5.27
imageio 2.4.1
imagesize 1.1.0
imbalanced-learn 0.4.3
imblearn 0.0
imgaug 0.2.6
imutils 0.5.2
inflect 2.1.0
intel-openmp 2019.0
intervaltree 2.1.0
ipykernel 4.6.1
ipython 5.5.0
ipython-genutils 0.2.0
ipython-sql 0.3.9
ipywidgets 7.4.2
itsdangerous 1.1.0
jdcal 1.4
jieba 0.39
Jinja2 2.10
jmespath 0.9.3
joblib 0.13.0
jpeg4py 0.1.4
jsonschema 2.6.0
jupyter 1.0.0
jupyter-client 5.2.4
jupyter-console 6.0.0
jupyter-core 4.4.0
kaggle 1.5.1.1
kapre 0.1.3.1
Keras 2.2.4
Keras-Applications 1.0.6
Keras-Preprocessing 1.0.5
keras-vis 0.4.1
knnimpute 0.1.0
librosa 0.6.2
lightgbm 2.2.2
llvmlite 0.26.0
lmdb 0.94
lucid 0.3.6
lxml 4.2.5
magenta 0.3.19
Markdown 3.0.1
MarkupSafe 1.1.0
matplotlib 2.1.2
matplotlib-venn 0.11.5
mesh-tensorflow 0.0.5
mido 1.2.6
mir-eval 0.5
missingno 0.4.1
mistune 0.8.4
mkl 2019.0
mlxtend 0.14.0
more-itertools 4.3.0
moviepy 0.2.3.5
mpi4py 3.0.0
mpmath 1.1.0
msgpack 0.5.6
msgpack-numpy 0.4.3.2
multiprocess 0.70.6.1
multitasking 0.0.7
murmurhash 1.0.1
music21 5.5.0
natsort 5.5.0
nbconvert 5.4.0
nbformat 4.4.0
networkx 2.2
nibabel 2.3.1
nltk 3.2.5
nose 1.3.7
notebook 5.2.2
np-utils 0.5.7.0
numba 0.40.1
numexpr 2.6.8
numpy 1.14.6
oauth2client 4.1.3
oauthlib 2.1.0
okgrade 0.4.3
olefile 0.46
opencv-contrib-python 3.4.3.18
opencv-python 3.4.4.19
openpyxl 2.5.9
osqp 0.5.0
packaging 18.0
pandas 0.22.0
pandas-datareader 0.7.0
pandas-gbq 0.4.1
pandas-profiling 1.4.1
pandocfilters 1.4.2
pathlib 1.0.1
patsy 0.5.1
pexpect 4.6.0
pickleshare 0.7.5
Pillow 4.0.0
pip 18.1
plac 0.9.6
plotly 1.12.12
pluggy 0.8.0
portpicker 1.2.0
prefetch-generator 1.0.1
preshed 2.0.1
pretty-midi 0.2.8
prettytable 0.7.2
progressbar2 3.38.0
promise 2.2.1
prompt-toolkit 1.0.15
protobuf 3.6.1
psutil 5.4.8
psycopg2 2.7.6.1
ptyprocess 0.6.0
py 1.7.0
pyasn1 0.4.4
pyasn1-modules 0.2.2
pycocotools 2.0.0
pycparser 2.19
pydot 1.3.0
pydot-ng 2.0.0
pydotplus 2.0.2
pyemd 0.5.1
pyglet 1.3.2
Pygments 2.1.3
pygobject 3.26.1
pymc3 3.5
pymongo 3.7.2
pymystem3 0.2.0
PyOpenGL 3.1.0
pyparsing 2.3.0
pysndfile 1.3.2
PySocks 1.6.8
pystache 0.5.4
pystan 2.18.0.0
pytest 3.10.1
python-apt 1.6.3
python-chess 0.23.11
python-dateutil 2.5.3
python-louvain 0.11
python-rtmidi 1.1.2
python-slugify 1.2.6
python-utils 2.3.0
pytz 2018.7
PyWavelets 1.0.1
PyYAML 3.13
pyzmq 17.0.0
qtconsole 4.4.3
regex 2018.1.10
requests 2.18.4
requests-oauthlib 1.0.0
resampy 0.2.1
rsa 4.0
s3fs 0.2.0
s3transfer 0.1.13
scikit-image 0.13.1
scikit-learn 0.20.1
scipy 1.1.0
screen-resolution-extra 0.0.0
scs 2.0.2
seaborn 0.7.1
setuptools 40.6.3
simplegeneric 0.8.1
six 1.11.0
sklearn 0.0
smart-open 1.7.1
snowballstemmer 1.2.1
sortedcontainers 2.1.0
spacy 2.0.18
Sphinx 1.8.2
sphinxcontrib-websupport 1.1.0
SQLAlchemy 1.2.15
sqlparse 0.2.4
stable-baselines 2.2.1
statsmodels 0.8.0
sympy 1.1.1
tables 3.4.4
tabulate 0.8.2
tblib 1.3.2
tensor2tensor 1.11.0
tensorboard 1.12.1
tensorboardcolab 0.0.22
tensorflow 1.12.0
tensorflow-hub 0.2.0
tensorflow-metadata 0.9.0
tensorflow-probability 0.5.0
termcolor 1.1.0
terminado 0.8.1
testpath 0.4.2
textblob 0.15.2
textgenrnn 1.4.1
tfds-nightly 0.0.2.dev201812180014 tflearn 0.3.2
Theano 1.0.3
thinc 6.12.1
toolz 0.9.0
tornado 4.5.3
tqdm 4.28.1
traitlets 4.3.2
tweepy 3.6.0
ujson 1.35
umap-learn 0.3.7
Unidecode 1.0.23
uritemplate 3.0.0
urllib3 1.22
vega-datasets 0.7.0
wcwidth 0.1.7
webencodings 0.5.1
Werkzeug 0.14.1
wheel 0.32.3
widgetsnbextension 3.4.2
wordcloud 1.5.0
wrapt 1.10.11
xarray 0.11.0
xgboost 0.7.post4
xkit 0.0.0
xlrd 1.1.0
xlwt 1.3.0
yellowbrick 0.9
zict 0.1.3
zmq 0.0.0

Googleなので、当然tensorflow,Kerasはあります。そして当然、Chainer,Pythorchはありません。 ただ、pipでその都度導入することはできます 自分の勉強用としては最適ではないでしょうか?また、12時間以上かかるときは途中経過を保存しておいても良いと思います。  環境はCPU(None)GPU、TPUを選ぶことができます。TPUというのがGoogleが深層学習用に作ったものらしいです。実行速度も魅力ですが、Out of memoryにならないのが魅力ですね。

機械学習を学ぶためには

 ライブラリには深層学習のフレームワークだけでなく、Scikit-learnもあります。先ほど述べたように、その場でライブラリのインストールもできます。インストール時間は意外と早かったりする場合も多くあります。
 このように「まず、データサイエンスやってみたい」っていう人にはオススメの環境です。 

今回はここの記事を参考にしました。 qiita.com

qiita.com

www.codexa.net