パスワードを忘れた? アカウント作成
13265088 story
携帯電話

携帯電話内のセクシー画像を検出して保護者に知らせるアプリ 47

ストーリー by hylom
下手に撮影すると子供でも児童ポルノ製造扱いになりますからね 部門より
eggy 曰く、

YIPO Technologiesという会社が、子供の携帯電話内の淫らな画像を検出し保護者に知らせるというアプリ「Gallery Guardian」を開発しているという。同アプリは子供の撮影した、もしくは受信した画像に対して画像認識アルゴリズムを実行し自動的に裸であるか否かを調べるというものだ(Huffington PostBBC)。

BBCが様々な画像を使って同アプリの機能を試してみたところ、服を着ているものの体の一部だけを露出させた写真がアルゴリズムをすり抜けてしまった。YIPO Technologiesによれば、同アプリの開発当初は肌の露出に焦点を当てていたため、こうした写真が検出をすり抜けてしまうのだそうだ。現在は生殖器にも反応するよう開発を進めているが「様々な形や大きさがあるため」アルゴリズムの精度をあげるのに苦労しているという。同アプリはまだ一般公開はされていないようだ。

この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。
  • くそっ (スコア:3, おもしろおかしい)

    by qem_morioka (30932) on 2017年04月28日 15時17分 (#3202306) 日記

    大きさも判定されるのかっ(ノД`)

    • by Anonymous Coward

      ポークビッツはだめで、アルトバイエルンならよいのか。シャウエッセンはどうだろう。

      • by qem_morioka (30932) on 2017年04月29日 11時00分 (#3202790) 日記

        シャウエッセンは一番旨いが、なかなか安売りしない。孤高の存在。
        アルトバイエルンはその孤高のシャウエッセンを常に追いかけてるがまだまだ。
        ポークビッツは比較することすらおこがましい。ただ、お弁当用途に一定需要が。

        # ぼ、ぽーくびっつで(涙

        親コメント
    • by Anonymous Coward

      松茸やアワビは区別できるのだろうか?

  • >BBCが様々な画像を使って同アプリの機能を試してみたところ、服を着ているものの体の一部だけを露出させた写真がアルゴリズムをすり抜けてしまった。

    メキシコサラマンダーやハダカデバネズミなんかの画像もひっかかるんだろうか。

    完全着衣でも充分エロい画像あるよね。
    逆に全裸でもエロくない画像もあるし。
    #エロの道は深く険しい。

    • by Anonymous Coward

      スモウレスラーはポロリが無くてもアウトでは?

    • by Anonymous Coward

      こういう技術の難しいところは、単なる「エロさの度合い」で検出するわけにはいかないところです。
      「性的興奮が得られる」ものと「ピックアップしたい(規制したい)」ものは違うのです。

      例えば赤ん坊の局部を見ても全く性的興奮を得ない人でも、人前でそういう写真をやりとりしているところを見たら眉をひそめるわけです。このとき「一般的にその写真がエロいからアウト」という基準ではない。

      極端なことを言えば、「レイプ画像」は露出度に関係なくアウト判定したいものでしょうけれども、
      じゃあその画像は一般的にエロいのかと言われた

    • by Anonymous Coward

      多分女性のひざ下ばかりとかでもすり抜けてしまうのじゃなかろうか。

  • by Kyoutarou.Neko (47787) on 2017年04月28日 14時42分 (#3202276) 日記

    子供が自分ではエロと認識せず、友達の裸なりなんなりを撮った写真って児童ポルノになっちゃうよね。
    そういうのも検出するのが目的なのかな?
    Web上で集めた画像だけじゃなく。

    • by Anonymous Coward on 2017年04月28日 15時01分 (#3202292)

      > The app looks at every picture a child takes or receives

      この文言からは、Web上で集めた画像はそもそも対象としていないように思える。
      スラドでは「淫らな画像を検出し」となっているか、「子供が撮影した写真を検出し」が正しいのではないかと。

      子供が後々のトラブルを考えずに自分の裸を撮って、誰かに送ろうとするのを防ぐのが主目的なのでは。

      親コメント
      • by Anonymous Coward

        or receives だから,メールや SNS で受信した写真は対象じゃないかな.

        直接的に言及はされていないけど Web のブラウジングも receives の対象だと思うけど.

    • 児童ポルノではないけど、ご両親が夜のプロレスごっこをしてるのを子供がこっそり撮影しちゃってるケースとかも。
      子供がなんのことか分からずに学校で友達に見せちゃうとかいろいろとヤバめ。

      親コメント
  • by Anonymous Coward on 2017年04月28日 15時31分 (#3202316)

    特定の肌の色にしか反応しなくてひと悶着おこったりして
    ほら日本でもスポーツ界みると海外にもルーツを持つ人増えてるし

    って書こうと思ったらこれ海外のニュースか
    それなら肌の色ぐらいはさすがに対処してるか

    • by Anonymous Coward on 2017年04月28日 21時22分 (#3202553)

      はだかリボン [goodsmile.info]はどう判定されるんでしょうかね。
      着衣時 [quesq.net])

      親コメント
    • by northern (38088) on 2017年04月29日 17時56分 (#3202979)

      http://nlab.itmedia.co.jp/nl/articles/1704/23/news018.html [itmedia.co.jp]
      世界各国の子供の肌の色を集めた色鉛筆セット

      親コメント
    • by Anonymous Coward

      何色まで対応してるんでしょうね。
      白黒黄色はもちろん、緑とか青とかピンクとかラバースーツ的なものまで。

      • by Anonymous Coward

        アバターみたいな青色の肌をどうするか
        除外するとなるとあえて裸になった上で肌を青くするテクニックが登場したりして
        あ、そんな面倒くさいことするよりか色の反転とかデータ上で処理した方が早いか
        まあ結局
        いたちごっこかな

        • by Anonymous Coward

          >除外するとなるとあえて裸になった上で肌を青くするテクニックが登場したりして
          ボディペイントってのは既に有るな。

      • by Anonymous Coward

        オレ、ヒーローアカデミアでは葉隠ちゃんが一番エロいと感じるんだけど

    • by Anonymous Coward

      変色した死体や相当毛深い人だとどうだろう
      結構大変そう

      • by Anonymous Coward
        犬とか猫とか羊の死体写真も検出できるようになった方が良いのかも。
    • by Anonymous Coward

      つーことはカラーマップ弄った画像とカラーマップ変換のビューアがあればいいんだな

      # 浅はか規制主義を規制することも検討してほしいよね

  • by Anonymous Coward on 2017年04月28日 14時42分 (#3202274)

    相撲やプロレスのファンの子は大変だろうな。

  • by Anonymous Coward on 2017年04月28日 14時57分 (#3202285)

    拡張子を変更して対抗するのであった。

    • by Anonymous Coward

      渋谷系JK               .の格好をしたOL24歳フォルダ
      とか
      ランドセルに三つ編みJC        .の格好をした主婦36歳フォルダ
      とかなんですね

      #どんな子供だ

      • by Anonymous Coward on 2017年04月28日 17時43分 (#3202423)

        拡張子をググってから書こう。

        親コメント
        • by acountname (43053) on 2017年04月29日 12時11分 (#3202809) 日記

          拡張子はですね、基本的にファイル名末尾に記号などで区切って書かれた文字列ぅ……ですかねぇ…に意味を与えられているOSと意味のないOSがありまして
          Windows系などはシステム的に意味が有り、unix系では特に意味はないですね
          拡張子に意味が与えられているOSでもフォルダの拡張子は無視してるのがふつうですねえ

          あとシステム的にはフォルダも「ファイル」の一種で、こっちは属性で制御されているんですね、他のファイルの場所や属性を記してあるもので、システムはそれを見て余裕で別の場所にジャンプしてくれますね

          親コメント
          • by Anonymous Coward

            UNIX系でもLinuxでウィンドウシステム使ってれば関係あるし、「特に意味はない」は今の時代では言いすぎかもしれませんね。

  • by Anonymous Coward on 2017年04月28日 15時03分 (#3202293)

    iOSで言えば、OSのデフォルトの画像ライブラリである写真アプリのDBはアクセス権限許可・拒否でサードパーティがアクセスできるようになる。
    が、例えばInstagramアプリ内で完結してる場合、サードパーティが画像をチェックすることはできない。

    Androidだとなんでもできちゃうのかな?
    ファイルシステム全体にアクセスして画像を全てチェックしていく、とかできるのだろうか。

    いろんな意味でiOSはセキュア(ユーザーにとって自由・監視されにくい)端末と言えるのか。

  • by Anonymous Coward on 2017年04月28日 15時05分 (#3202294)

    こんなのすでにGoogleさんあたりがAIに学習させて認識するやつに手を付けててそのうち始めそうだけど。
    投入できるリソースではかなわないだろうし。

    • by qem_morioka (30932) on 2017年04月29日 11時05分 (#3202791) 日記

      AIにまかせとけばなんでもできると思ってるようだけど、
      これがエロ、これはエロじゃないってあらかじめ人が判別しないと
      学習はなかなか進まないよ?

      AI「これエロですか?」
      人「うーん、まあエロっていえばエロかなあ」
      AI「じゃこれはエロですか?」
      人「ああ、これはアウトだね」
      AI「これはエロですか?」
      人「こ、これは…(ゴクリ せ、セー…アウトおぉぉ!」
      AI「…(どっちなんだろう)」

      AI「75%の確率でこれはエロです」
      上司「…だれだこのAIにこんな性癖を学習させたのは!!」

      親コメント
  • by Anonymous Coward on 2017年04月28日 15時11分 (#3202298)
  • by Anonymous Coward on 2017年04月28日 15時59分 (#3202337)
    親のコレクションに追加されるのですね
  • by Anonymous Coward on 2017年04月29日 0時00分 (#3202655)

    その日から、家の中のセキュリティレベルを一気に上げなきゃならん。

typodupeerror

長期的な見通しやビジョンはあえて持たないようにしてる -- Linus Torvalds

読み込み中...