携帯電話内のセクシー画像を検出して保護者に知らせるアプリ 47
ストーリー by hylom
下手に撮影すると子供でも児童ポルノ製造扱いになりますからね 部門より
下手に撮影すると子供でも児童ポルノ製造扱いになりますからね 部門より
eggy 曰く、
YIPO Technologiesという会社が、子供の携帯電話内の淫らな画像を検出し保護者に知らせるというアプリ「Gallery Guardian」を開発しているという。同アプリは子供の撮影した、もしくは受信した画像に対して画像認識アルゴリズムを実行し自動的に裸であるか否かを調べるというものだ(Huffington Post、BBC)。
BBCが様々な画像を使って同アプリの機能を試してみたところ、服を着ているものの体の一部だけを露出させた写真がアルゴリズムをすり抜けてしまった。YIPO Technologiesによれば、同アプリの開発当初は肌の露出に焦点を当てていたため、こうした写真が検出をすり抜けてしまうのだそうだ。現在は生殖器にも反応するよう開発を進めているが「様々な形や大きさがあるため」アルゴリズムの精度をあげるのに苦労しているという。同アプリはまだ一般公開はされていないようだ。
くそっ (スコア:3, おもしろおかしい)
大きさも判定されるのかっ(ノД`)
Re: (スコア:0)
ポークビッツはだめで、アルトバイエルンならよいのか。シャウエッセンはどうだろう。
Re:くそっ (スコア:2)
シャウエッセンは一番旨いが、なかなか安売りしない。孤高の存在。
アルトバイエルンはその孤高のシャウエッセンを常に追いかけてるがまだまだ。
ポークビッツは比較することすらおこがましい。ただ、お弁当用途に一定需要が。
# ぼ、ぽーくびっつで(涙
Re: (スコア:0)
松茸やアワビは区別できるのだろうか?
画像認識アルゴリズム (スコア:1)
>BBCが様々な画像を使って同アプリの機能を試してみたところ、服を着ているものの体の一部だけを露出させた写真がアルゴリズムをすり抜けてしまった。
メキシコサラマンダーやハダカデバネズミなんかの画像もひっかかるんだろうか。
完全着衣でも充分エロい画像あるよね。
逆に全裸でもエロくない画像もあるし。
#エロの道は深く険しい。
Re: (スコア:0)
スモウレスラーはポロリが無くてもアウトでは?
Re:画像認識アルゴリズム (スコア:1)
相撲はポロリがあったら負けてしまいます。
「もろだし」って手です。
昭和初期以来出てない手なはずだけど…(記憶に自信なし)
Re:画像認識アルゴリズム (スコア:3, 参考になる)
Re:画像認識アルゴリズム (スコア:2)
「もろだし」とも書いてありますね。
2000年にもあったとは知りませんでした。
私が調べたのはその前かな、多分。
Re: (スコア:0)
私が調べたのはその前かな、多分。
昭和初期から記憶止まってない?
Re: (スコア:0)
無粋な突っ込みだけど、昭和初期は1930年とかだぜ?
ちなみに昭和後期にツッパリ大相撲というゲームがあってな。
元コメはそのあたりの影響で知ったのかなと予想(調べたのはいつか知らないけど)。
Re:画像認識アルゴリズム (スコア:1)
防ぎ手は「前貼り」?
Re: (スコア:0)
中学の時の公式試合でしたが、私の場合は組み直しになりました。
# もちろんAC
Re: (スコア:0)
こういう技術の難しいところは、単なる「エロさの度合い」で検出するわけにはいかないところです。
「性的興奮が得られる」ものと「ピックアップしたい(規制したい)」ものは違うのです。
例えば赤ん坊の局部を見ても全く性的興奮を得ない人でも、人前でそういう写真をやりとりしているところを見たら眉をひそめるわけです。このとき「一般的にその写真がエロいからアウト」という基準ではない。
極端なことを言えば、「レイプ画像」は露出度に関係なくアウト判定したいものでしょうけれども、
じゃあその画像は一般的にエロいのかと言われた
Re: (スコア:0)
多分女性のひざ下ばかりとかでもすり抜けてしまうのじゃなかろうか。
Re:画像認識アルゴリズム (スコア:1)
ふくらはぎフェチなら大丈夫そう
Re: (スコア:0)
足裏フェチもどうかと思ったが、それどころか靴フェチ、更に上靴フェチまで居たってのが世間の広さを感じさせる。
つーか (スコア:1)
子供が自分ではエロと認識せず、友達の裸なりなんなりを撮った写真って児童ポルノになっちゃうよね。
そういうのも検出するのが目的なのかな?
Web上で集めた画像だけじゃなく。
Re:つーか (スコア:1)
> The app looks at every picture a child takes or receives
この文言からは、Web上で集めた画像はそもそも対象としていないように思える。
スラドでは「淫らな画像を検出し」となっているか、「子供が撮影した写真を検出し」が正しいのではないかと。
子供が後々のトラブルを考えずに自分の裸を撮って、誰かに送ろうとするのを防ぐのが主目的なのでは。
Re: (スコア:0)
or receives だから,メールや SNS で受信した写真は対象じゃないかな.
直接的に言及はされていないけど Web のブラウジングも receives の対象だと思うけど.
Re:つーか (スコア:1)
児童ポルノではないけど、ご両親が夜のプロレスごっこをしてるのを子供がこっそり撮影しちゃってるケースとかも。
子供がなんのことか分からずに学校で友達に見せちゃうとかいろいろとヤバめ。
肌の色 (スコア:1)
特定の肌の色にしか反応しなくてひと悶着おこったりして
ほら日本でもスポーツ界みると海外にもルーツを持つ人増えてるし
って書こうと思ったらこれ海外のニュースか
それなら肌の色ぐらいはさすがに対処してるか
Re:肌の色 (スコア:1)
はだかリボン [goodsmile.info]はどう判定されるんでしょうかね。
(着衣時 [quesq.net])
Re:肌の色 (スコア:1)
http://nlab.itmedia.co.jp/nl/articles/1704/23/news018.html [itmedia.co.jp]
世界各国の子供の肌の色を集めた色鉛筆セット
Re: (スコア:0)
何色まで対応してるんでしょうね。
白黒黄色はもちろん、緑とか青とかピンクとかラバースーツ的なものまで。
Re: (スコア:0)
アバターみたいな青色の肌をどうするか
除外するとなるとあえて裸になった上で肌を青くするテクニックが登場したりして
あ、そんな面倒くさいことするよりか色の反転とかデータ上で処理した方が早いか
まあ結局
いたちごっこかな
Re: (スコア:0)
>除外するとなるとあえて裸になった上で肌を青くするテクニックが登場したりして
ボディペイントってのは既に有るな。
Re: (スコア:0)
オレ、ヒーローアカデミアでは葉隠ちゃんが一番エロいと感じるんだけど
Re: (スコア:0)
変色した死体や相当毛深い人だとどうだろう
結構大変そう
Re: (スコア:0)
Re: (スコア:0)
つーことはカラーマップ弄った画像とカラーマップ変換のビューアがあればいいんだな
# 浅はか規制主義を規制することも検討してほしいよね
きっと (スコア:0)
相撲やプロレスのファンの子は大変だろうな。
Re: (スコア:0)
あとは水泳に
裸芸のお笑い芸人
ほかはなんだろう
Re:きっと (スコア:2)
Re: (スコア:0)
ボディビル
一方子供は (スコア:0)
拡張子を変更して対抗するのであった。
Re: (スコア:0)
渋谷系JK .の格好をしたOL24歳フォルダ
とか
ランドセルに三つ編みJC .の格好をした主婦36歳フォルダ
とかなんですね
#どんな子供だ
Re:一方子供は (スコア:1)
拡張子をググってから書こう。
Re:一方子供は (スコア:1)
拡張子はですね、基本的にファイル名末尾に記号などで区切って書かれた文字列ぅ……ですかねぇ…に意味を与えられているOSと意味のないOSがありまして
Windows系などはシステム的に意味が有り、unix系では特に意味はないですね
拡張子に意味が与えられているOSでもフォルダの拡張子は無視してるのがふつうですねえ
あとシステム的にはフォルダも「ファイル」の一種で、こっちは属性で制御されているんですね、他のファイルの場所や属性を記してあるもので、システムはそれを見て余裕で別の場所にジャンプしてくれますね
Re: (スコア:0)
UNIX系でもLinuxでウィンドウシステム使ってれば関係あるし、「特に意味はない」は今の時代では言いすぎかもしれませんね。
どういう仕組み? (スコア:0)
iOSで言えば、OSのデフォルトの画像ライブラリである写真アプリのDBはアクセス権限許可・拒否でサードパーティがアクセスできるようになる。
が、例えばInstagramアプリ内で完結してる場合、サードパーティが画像をチェックすることはできない。
Androidだとなんでもできちゃうのかな?
ファイルシステム全体にアクセスして画像を全てチェックしていく、とかできるのだろうか。
いろんな意味でiOSはセキュア(ユーザーにとって自由・監視されにくい)端末と言えるのか。
自分でやんなくても (スコア:0)
こんなのすでにGoogleさんあたりがAIに学習させて認識するやつに手を付けててそのうち始めそうだけど。
投入できるリソースではかなわないだろうし。
Re:自分でやんなくても (スコア:3, 興味深い)
AIにまかせとけばなんでもできると思ってるようだけど、
これがエロ、これはエロじゃないってあらかじめ人が判別しないと
学習はなかなか進まないよ?
AI「これエロですか?」
人「うーん、まあエロっていえばエロかなあ」
AI「じゃこれはエロですか?」
人「ああ、これはアウトだね」
AI「これはエロですか?」
人「こ、これは…(ゴクリ せ、セー…アウトおぉぉ!」
AI「…(どっちなんだろう)」
…
AI「75%の確率でこれはエロです」
上司「…だれだこのAIにこんな性癖を学習させたのは!!」
創業者が元FX会社の地域社長とか (スコア:0)
https://uk.linkedin.com/in/dskowronski [linkedin.com]
見つけて (スコア:0)
Re:見つけて (スコア:1)
※今後の改善資料としてサーバーにも転送されます。
と極小の字でかいてあるに違いない
もしPC版がでたら (スコア:0)
その日から、家の中のセキュリティレベルを一気に上げなきゃならん。