その後のその後

iOSエンジニア 堤 修一のブログ github.com/shu223

「エンジニアのための発信講座」を2ヶ月やってみた進捗

先日、「エンジニアのための発信講座」の第5回を行いました。開始からだいたい2ヶ月経ったということで、今回は趣向を変えて「中間成果発表会」と題して進捗状況を共有しました。 以下発表スライドです。 (確認できているだけでも複数出ています) (初めて…

「エンジニアのための発信講座」をはじめます

(2020.7.15 タイトル変更しました) 弊オンラインサロン開設以来、ずっと「サロンという形態で自分が提供できる価値は何か」とずっと自問してきました。iOSやSwiftといった何か特定の技術を初学者に丁寧に教えるというのは僕の強みを活かすものではないし、…

API Diffsから見るiOS 14の新機能 - ML・画像・音声編 #WWDC20 #iOS14

本日からはじまったWWDC 2020、明日から始まるセッションに備え、ドキュメントからAPIの差分をみて気になったものをピックアップしていきます。 数時間前に投稿した新規追加フレームワーク編に続き、本記事では既存フレームワークのうち、機械学習(ML)、画…

API Diffsから見るiOS 14の新機能 - 新フレームワーク編 #WWDC20 #iOS14

本日からはじまったWWDC 2020、まだ基調講演しか見てないのですが(SOTUも後で見ます)、ドキュメントは公開されたので、明日から始まるセッションでどのあたりをチェックするか当たりをつけるべく、例年通りAPIの差分を見て気になった新APIをピックアップし…

月額500円のオンラインサロンを始めました

今月の中旬頃、オンラインサロンを始めました。 エンジニアと人生コミュニティ - CAMPFIRE (キャンプファイヤー) 5/13に募集開始し、翌日には100名の募集枠が埋まりました。今は定員いっぱいで新規で入っていただくことはできない状態ですが、自分にとって非…

ドラッグ&ドロップでCore MLモデルを試せる「MLModelCamera」で物体検出モデルをサポートしました

Create MLによって画像分類モデル(Image Classifier)をドラッグ&ドロップでつくれるようになったので、 shu223.hatenablog.com そのモデル(.mlmodel)をドラッグ&ドロップするだけでリアルタイム画像認識アプリとして試せるOSSをつくりました(2年前に…

Core ML Tools実践入門に「mlmodelファイルフォーマット」の章を加筆しました #技術書典

拙著「Core ML Tools実践入門」に加筆した新版を公開しました。 shu223.hatenablog.com BOOTH、技術書典 応援祭、コンカで電子版をご購入の方は新版を無料でダウンロードしていただけます。 mlmodelファイルフォーマットについて知ると何が嬉しいのか? 知る…

「Core ML Tools実践入門」という本を書きました #技術書典

iOS×機械学習といえばCore ML。既製のCore MLモデルを扱うのは非常に簡単なのですが、 TensorFlowやKeras等の機械学習ツールで作成した独自モデルをCore MLモデルに変換したい モデルサイズを小さくしたい 複数サイズの入力をサポートしたい オンデバイスで…

フリーランスのお仕事まとめ2019

2020年に入って既に10分の1ほど過ぎてしまいましたが、2019年にやったお仕事のまとめです。 機械学習×iOS とある有名アプリへの機械学習モデル組み込み実装 実稼働中 実績公開OKか未確認なので控えておく 「まごチャンネル」の子供写真検出 【お仕事】テレビ…

「エンジニアと人生」というYouTubeチャンネルを始めました

「エンジニアと人生」というYouTubeチャンネルを始めました。 www.youtube.com 技術の小難しい話はおいておいて、「生き様」に焦点をあてていろんなエンジニアにお話を伺う、というコンセプトの雑談チャンネルです。 ソフトウェアエンジニアという職業は今や…

[2019年度版]ドラッグ&ドロップで機械学習のモデルがつくれる「Create ML」の使い方(macOS 10.15 Catalina) #WWDC19

ドラッグ&ドロップで超簡単にオリジナルの機械学習モデルがつくれてしまうCreate MLが大幅パワーアップしました。 新機能が増えたのと、使い方が若干変わった(より簡単になった)部分があるので、最新版として本記事をお送りします。 なお、NDAに配慮して…

API Diffsから見るiOS 13の新機能 - その他諸々 #WWDC19

Vision編、CoreML公式配布モデル編、Core Image編と、巨大な新API群の端っこの方から記事を書き始めたわけですが、その後どのフレームワークについて書こうとしても調査内容が膨大になってしまってうまくまとまらず、もう眠くなってしまったのでざっくり箇条…

API Diffsから見るiOS 13の新機能 - Core Image #WWDC19

iOS 13の新API発掘シリーズその3です。今回はCore Image。 API Diffsから見るiOS 13の新機能 - Vision #WWDC19 - その後のその後 API Diffsから見るiOS 13の新機能 - CoreML公式配布モデル #WWDC19 - その後のその後 髪・肌・歯のマスク iOS 12の"Portrait M…

API Diffsから見るiOS 13の新機能 - CoreML公式配布モデル #WWDC19

iOS 13の新API発掘シリーズその2です。 以前の公式配布CoreMLモデルと言えば、imagenetベースの物体検出がほとんどで、あまり新鮮味のあるモデルは配布されていませんでした。 qiita.com なので、自作するか、サードパーティ製のを探して使うことがほとんど…

API Diffsから見るiOS 13の新機能 - Vision #WWDC19

iOSエンジニア諸氏のツイートを見ているとSwiftUIが圧倒的インパクトっぽい今回のWWDCですが、そのへんは識者の方々にお任せして、「その他フレームワーク」で気になった新APIを見ていきたいと思います。 まずはVision。 Visionもかなりアツい。- VNRecogniz…

「iOSエンジニアのためのmacOSアプリ開発入門」という本を書きました #技術書典 #技術書典6

macOS/Cocoaアプリ開発の技術書を書きました。macOSアプリ開発は、 使用言語はSwift IDEはXcode 標準フレームワークの多くがiOSと共通 と、iOSアプリ開発と共通点が多いため、iOSエンジニアにとっては比較的とっつきやすいはずです。 ・・・が、「UIKitでは…

try! Swift Tokyo 2019の復習 #tryswiftconf

平日に戻ったら復習の機会もなくなるのでできるだけスライドとかで復習していきます。ここに書いた以外にも素晴らしいセッションがたくさんありましたが、会場で理解が追いつかなかったもの、あまりちゃんと聞けなかったものを中心に。 Keypath入門 - Introd…

「iOS 12 Programming」のCore ML 2の章で勉強になったことのメモ

遅ればせながら、私も執筆に参加した「iOS 12 Programming」を読んでいます1。で、sonsonさん執筆のCore ML 2の章がめちゃくちゃ勉強になったのでメモ。 iOS 12 Programming 著者: 加藤 尋樹,佐藤 紘一,石川 洋資,堤 修一,吉田 悠一,池田 翔,佐藤剛士,大榎…

[書評]日本語初の「モバイルアプリ開発者向け」機械学習・ディープラーニング解説書

「iPhone/Androidアプリ開発者のための機械学習・深層学習 実践入門」をご恵贈いただきました。機械学習関連の技術書は数あれど、モバイルアプリ開発者向けを謳ったものは日本語では初だと思います。 iPhone/Androidアプリ開発者のための機械学習・深層学習 …

フリーランスのお仕事まとめ2018年9月〜12月

前回の実績まとめ以降の9月〜12月の4ヶ月間にやったお仕事のまとめ。 ハイライト 「アナログデジタルボドゲ」がついにリリース 「機械学習×iOS」案件が増えてきた 採用コンサルや新規の技術顧問契約等、新展開も色々と 本の執筆×2 インタビューしていただき…

「iOS 12 Programming」のARKitとデプスの章を執筆しました

12月17日、共著で執筆したiOSの技術書「iOS 12 Programming」の一般販売が開始されました! iOS 12 Programming 著者: 加藤 尋樹,佐藤 紘一,石川 洋資,堤 修一,吉田 悠一,池田 翔,佐藤剛士,大榎一司,所 友太, 製本版,電子版 PEAKSで購入する 私は「ARKit」…

技術書の著者になるためにやったこと

この記事はカヤックOBが綴るアドベントカレンダー「ex-KAYAC Advent Calendar 2018」の4日目の記事となります。 2010年: いつか技術書を書いてみたい プログラマになる前、「本の書く」というのは自分とは関係ない「どこか遠い世界の話」のように思っていま…

フリーランスのお仕事まとめ2018年5月〜8月

前回の実績まとめ記事以降(5月〜8月いっぱいまで)の4ヶ月間にやったお仕事のまとめ。 Fyusion 5月GW以降の約3週間はサンフランシスコでFyusionの仕事1。新しい画像処理機能の開発と、既存の画像処理パイプラインをMetalで最適化する仕事をやってました。 W…

技術書でご飯は食べられるのか? #技術書典

昨日開催された技術書典5にて、新刊「実践ARKit」と既刊「Metal入門」という2冊の技術書を販売してきました。これまで商業出版も含め何度か技術書を書いてきて、「技術書に儲けを期待してはいけない」1と思い込んできましたが、昨日一日の売り上げは約46万円…

ARKitの解説書を個人出版しました #技術書典 #技術書典5

ARKitの解説書「実践ARKit」を本日よりBOOTHにて販売開始しました!ARKit 2.0 (iOS 12)・Xcode 10・Swift 4.2対応、全119ページ(製本版は92ページ)。サンプルコードはGitHubよりダウンロード可能です。 shu223.booth.pm なお、明日開催される技術書典5では…

デプス(深度)をiOSで扱う方法を網羅したサンプルコード集「iOS-Depth-Sampler」を公開しました

iOSにおけるデプス(深度)関連APIの実装方法を示すサンプル集「iOS-Depth-Sampler」をオープンソースで公開しました。 github.com ソースコードは GitHub に置いてあるので、ご自由にご活用ください。Swift 4.2です。 今のところ6つのサンプル(後述)が入…

iOSDCで「深度(デプス)」について話しました #iosdc

8/30〜9/2の4日間、900人規模で開催されたカンファレンスiOSDC 2018にて、「Depth in Depth」というタイトルで、iOSにおける深度データにまつわる諸々について30分の枠でお話させていただきました。 speakerdeck.com タイトルの"in Depth"というのはWWDCのセ…

ARKit 2.0の画像トラッキングとARKit 1.5の画像検出の違い

ARKit 2.0では、「画像トラッキング」という新機能が加わりました。既知の2次元画像を検出・トラッキングできるので、ポスター等の現実世界に存在する2D画像を基盤にしてAR体験を開始することができるようになる、というものです。これを聞いて「あれ、その…

iOS 12のPortrait Matteがすごい/ #iOSDC 2018で登壇します

iOS 12の新機能"Portrait Matte"(ポートレート・マット)の概要と、実装方法を紹介します。1 深度マップとセグメンテーション 昨今のiPhoneではデュアルカメラ(iPhone 7Plus, 8 Plus, Xの背面に搭載)、あるいはTrueDepthカメラ(iPhone Xの前面に搭載)か…

オランダの小さな島で開催されたカンファレンス「Swift Island」に参加した話 #swiftisland2018

今月の初旬、「Swift Island 2018」というSwiftおよびiOSをテーマとするカンファレンスに参加してきました。テッセル島というオランダにある小さな島が会場で、 カンファレンス会場にバンガローがあり、基本的に全員がそこに泊まる 部屋は別々 チケット代に…