- 1 : 2021/08/06(金) 18:25:34.08 ID:h44zxVK3M
-
ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されて
いる画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が
開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、
チェックするものだという。このニュースは、フィナンシャル・タイムズが最初に報じていた。フォーブスはアップルにコメントを求めている。
米国司法省は昨年、テクノロジー企業やソーシャルメディア企業に対し、子どもの性的搾取や虐待への対策を強化
することを目的とした「自主的原則」を発表し、違法なコンテンツを発見した場合、ただちに当局に報告するよう呼び
かけた。マイクロソフトは、その後、企業がインターネット上の児童の性的虐待画像を特定するためのphotoDNAを作成した。
フェイスブックとグーグルも、画像の内容を確認しフラグを立てるシステムをすでに導入している。ジョン・ホプキンス大学のセキュリティ研究者であるマシュー・グリーンは、アップルが個人のiPhoneをスキャンして
「禁止されたコンテンツ」を探すシステムを構築することは、「ダムを壊す」ことになり、米国政府がすべての人々の
端末を検閲することにつながりかねないと指摘した。グリーンはさらに、AP通信に対し、アップルが他の国の政府からの圧力を受けて、別の情報をスキャンするように
なるのではないかという懸念を示している。児童保護団体「National Council for Missing and Exploited Children」によると、フェイスブックが2020年に法執行
機関に報告した児童の性的虐待画像は、2000万件に達していた。この数字には、フェイスブックとインスタグラム上
の画像が含まれており、2019年の1600万件から上昇していた。
ht●tps://news.yahoo.co.jp/articles/822a14997fa069030940559a5f70d07018c8ff22 - 2 : 2021/08/06(金) 18:27:20.17 ID:wE+2PsrAp
-
これなんかの法律に引っかかるんじゃない?
- 3 : 2021/08/06(金) 18:28:08.43 ID:Cs9ggGvJ0
-
わざわざそんなシステムを入れるほど持ってるやつが多いの?(ドン引き)
- 4 : 2021/08/06(金) 18:29:27.08 ID:ixI4VA7nM
-
完全に検閲じゃん
デストピア到来待ったなし - 5 : 2021/08/06(金) 18:36:25.01 ID:vDJ4jh3pp
-
これ児ポ関係なく他の画像も検出する奴だろ
- 6 : 2021/08/06(金) 18:48:34.08 ID:+RZToQgZ0
-
こんなことするのは中国とロシアだけだと思ったら
- 66 : 2021/08/07(土) 00:49:18.07 ID:2HHBw0uA0
-
>>6
共産党とリベラルの源流は同じで
結局、優れた思想をもつ指導者に従う流れになる - 72 : 2021/08/07(土) 02:30:27.12 ID:YvRxzHrtM
-
>>66
保守がやると強権独裁主義で
共産がやると素晴らしいのかwwwww - 7 : 2021/08/06(金) 18:54:27.85 ID:trOWn+pjM
-
水着とか引っかかると思うけどどうするんだ。
- 8 : 2021/08/06(金) 18:57:11.66 ID:4a3EdnaD0
-
アメリカなんかじゃ、自分の子の裸の写真撮影するだけで逮捕されるからな
- 9 : 2021/08/06(金) 19:06:29.40 ID:EpWq+OfG0
-
ロリコンは全て牢屋にぶち込め!
- 10 : 2021/08/06(金) 19:08:19.18 ID:OL16AIMUM
-
自分の子供や孫の写真が検出されて問題になるのか。
- 11 : 2021/08/06(金) 19:08:25.03 ID:sJAsMleK0
-
日本人は全てアウト判定くらいそう
- 31 : 2021/08/06(金) 20:50:59.63 ID:Hp24YYrF0
-
>>11
日本人のAV女優の画像保存してたらマジで引っかかりそうな気がするわ - 12 : 2021/08/06(金) 19:09:28.69 ID:FNPLVwhRd
-
例えば自分の娘をプールにいれて写真をとる溺愛パパさんがいるとするじゃん
ソフトがこれは女児を盗撮するロリコンと判断して検出するじゃん
法機関が危険人物として検挙するじゃんデストピア待ったなしだな
- 19 : 2021/08/06(金) 19:35:44.60 ID:lbAp1+We0
-
>>12
データベースに自分の娘の写真無いだろ - 23 : 2021/08/06(金) 20:39:23.92 ID:FNPLVwhRd
-
>>19
なら新規でとった写真やロリビデオでは一切検挙できないとでも?んなわけないだろ、なんの意味があるんだよそれ
似通った条件で検索するようこういうのはできてるに決まってるだろ
だから自分の娘でも反応する - 98 : 2021/08/07(土) 13:35:36.91 ID:C6en5Uh70
-
>>12
アメリカならそれ普通に犯罪だから
自分の娘に性犯罪するクソは刑務所で虐め殺されるに決まってる - 131 : 2021/08/08(日) 01:38:21.07 ID:7emukDS/0
-
>>98
アメリカは問題の多い国だよなぁ
金持ちとエリートには楽しいらしいが - 13 : 2021/08/06(金) 19:09:36.88 ID:xLymPEuLa
-
こういうスレ見るだけで警告が来そうだな
- 14 : 2021/08/06(金) 19:09:43.28 ID:KJVKutqI0
-
Shosi君ピンチ
- 15 : 2021/08/06(金) 19:10:32.55 ID:dMFqJgiM0
-
いいねこれどんどんやってほしい
困るのはゴキブリだけだしw - 136 : 2021/08/08(日) 04:05:36.98 ID:A1HPLMx+0
-
>>15
イカの有名なチームがレイプしてたろ - 16 : 2021/08/06(金) 19:11:14.47 ID:b+NFQx/Z0
-
2000万件って…
- 17 : 2021/08/06(金) 19:21:51.81 ID:oqszfTag0
-
shosiおわた
- 18 : 2021/08/06(金) 19:23:35.88 ID:+RZToQgZ0
-
胎児のエコー写真も高画質化したからアウトだな
- 20 : 2021/08/06(金) 19:40:43.46 ID:mnxuw8k0p
-
俺が幼女に転生したら自撮り出来ないじゃん…
- 21 : 2021/08/06(金) 19:50:26.50 ID:gfFoP1Zw0
-
虹専でも通報されんの
- 83 : 2021/08/07(土) 08:10:18.19 ID:bstL22wU0
-
便利になるようで実は不便になっていく世の中だなw
>>21
海外2次でもアウトになってるぞ カナダだったかな - 140 : 2021/08/08(日) 04:27:58.65 ID:5A05uQjJ0
-
>>21
ロシアやカナダでは二次元も違法だからどう解釈するかだな - 22 : 2021/08/06(金) 20:12:42.71 ID:1V5iqH0sa
-
同意無しにやったら集団訴訟待った無し
- 24 : 2021/08/06(金) 20:41:23.73 ID:XxcT+CF6p
-
アニメとかでも引っかかるのかね
- 25 : 2021/08/06(金) 20:43:34.10 ID:n+BiE0kN0
-
じゃあ俺のチ●コの写真写したらそれも全部チェックされるんか?
- 85 : 2021/08/07(土) 08:23:17.49 ID:8gMnO/H+0
-
>>25
短小包茎だったらそうかも - 26 : 2021/08/06(金) 20:46:25.36 ID:KKYwHFA4a
-
MSもかなり前からOneDriveを機械的にスキャンしてたはず
- 28 : 2021/08/06(金) 20:48:17.47 ID:JB+RS7kp0
-
>>26
mp3保存してたら勝手に削除されてたわ - 27 : 2021/08/06(金) 20:47:50.93 ID:v169fGzP0
-
PCゲー以外はLinuxにしないと駄目だな
- 30 : 2021/08/06(金) 20:50:28.64 ID:pf+MCTio0
-
これくらいやらないとな隠れ犯罪者は消えないよ
しょーしは覚悟しとけ - 32 : 2021/08/06(金) 20:54:17.63 ID:oAle1knR0
-
ディストピアー♪@MEGADETH
デストピアって間違えてるのはわざと?w - 55 : 2021/08/07(土) 00:16:06.53 ID:XNIP/8qgM
-
クラウドにあげたデータはともかく個人端末の中まで勝手に検索とかさすがさすが
>>32
デストピアでググれ - 33 : 2021/08/06(金) 20:56:43.89 ID:4tDVL16/d
-
むしろ今までもやってただろレベル
- 34 : 2021/08/06(金) 21:02:48.32 ID:oKcl99bQ0
-
どうせならデータ破壊かサイレント削除やれば良いのに。
- 36 : 2021/08/06(金) 21:30:21.34 ID:5MwmJBZK0
-
iPhoneやめてええなこれは
- 37 : 2021/08/06(金) 21:33:28.66 ID:9XQQMlh00
-
全国の小学校教員が一斉逮捕されそう
- 38 : 2021/08/06(金) 21:34:09.08 ID:tmqn81Gfa
-
検閲はさすがにダメでしょ
- 40 : 2021/08/06(金) 21:44:46.59 ID:Fc96c5UNd
-
iCloudならともかく端末の覗くとか違法だろ!こっちが通報したるわ!
- 41 : 2021/08/06(金) 21:52:21.25 ID:ouksvZSp0
-
ロリコン
ゲイ
バイセクシャル
トランスセクシャルの
LGBTのロリを規制するとはなんたる人権侵害 - 42 : 2021/08/06(金) 21:57:26.37 ID:X+6LKtKv0
-
ロリコンは4ね
- 43 : 2021/08/06(金) 21:58:12.97 ID:F1CUCxwd0
-
ロリコンはほんと気持ち悪い
- 44 : 2021/08/06(金) 22:42:44.62 ID:dZ8pCdKV0
-
自分で描いた絵ならかなりあるな
これで文句つけられたら表現法違反だろ - 45 : 2021/08/06(金) 22:48:39.52 ID:dZ8pCdKV0
-
米国法だと成人ならおま●こ見えててもなんでも良いのか
いい加減年齢で区切るのやめたら?バカじゃね? - 46 : 2021/08/06(金) 23:23:11.51 ID:zSS7UYlxd
-
>>45
いや。それ言う? - 47 : 2021/08/06(金) 23:30:57.62 ID:KDsZI10R0
-
macだってwindowsだって中検閲されるかもしれんぞ?
- 48 : 2021/08/06(金) 23:51:57.58 ID:ZzJajmpI0
-
これが問題なのは絵よな
向こうの人絵と実写の区別つかないから - 49 : 2021/08/06(金) 23:54:05.70 ID:3rZ/XmE00
-
AIである程度はもう自動判定できるようになるやろ
- 50 : 2021/08/07(土) 00:00:51.55 ID:Prx3IVqf0
-
AIがイラストは弾いてくれるといいけど、まあイラストも対象だろな
ロリキャラの水着イベントとかやってるソシャゲも米国では全部バンになるかと
- 74 : 2021/08/07(土) 04:26:37.32 ID:hIqubBiU0
-
>>50
AIさんて黒人とゴリラの区別もつかないんでしょ? - 51 : 2021/08/07(土) 00:00:54.08 ID:WVOTV4Bh0
-
アニメとか2次元キャラの画像だけでも通報されそうw
- 52 : 2021/08/07(土) 00:03:57.86 ID:ivUxZpXl0
-
日本人女とか成人しててもロリ判定されそう
- 53 : 2021/08/07(土) 00:08:49.38 ID:Prx3IVqf0
-
これ児童ポルノ対策を装ったポリコレだもん
漫画を56す気だね、間違い無いわ - 54 : 2021/08/07(土) 00:14:47.28 ID:RcqhSTbFM
-
これはさすがにやり過ぎ
違法ファイルとは言えその手の画像なんかでガス抜きしてやり過ごしてる隠れ児童性愛者は多いはず
もしそういったものを一切合切取り上げられたらそういう奴らもどう出るかわからんぞ - 56 : 2021/08/07(土) 00:21:18.75 ID:Prx3IVqf0
-
つーかイラスト抜きにしたら児童ポルノの画像を2000万も集めるのは普通に無理なはず
しかもインスタとフェイスブックに普通に投稿されているらしい
まあ二次イラストがほとんどだろうな - 57 : 2021/08/07(土) 00:27:06.90 ID:QRgkw9uI0
-
すげえな、人権とか完全に無視じゃん
- 58 : 2021/08/07(土) 00:29:24.34 ID:sMDpWiX90
-
エ口動画編集して各端末の写り具合のチェックにクラウド利用して、即削除してたけど、迂闊にそういうのも出来ないな
- 59 : 2021/08/07(土) 00:32:02.32 ID:792sK52x0
-
みんな書いてるけど
これ普通に虹エ口も対象だと思うよ
北米では元々虹エ口厳しいし、
当然これ北米基準でやるだろうからな - 80 : 2021/08/07(土) 07:55:07.07 ID:zLUCYHGsp
-
>>59
ゲハ民99%逮捕されちゃうじゃん。 - 60 : 2021/08/07(土) 00:34:43.81 ID:s+8UOUvo0
-
こんなのアイビスペイントみたいな画像編集アプリで
適当な画像の下レイヤーに保存すればいいだけじゃね
見られるのがpngかjpgだけならtiffとかpsdで保存しとけばいいし
ちょっと画像の知識もってりゃいくらでも隠せると思うが - 61 : 2021/08/07(土) 00:37:54.54 ID:Prx3IVqf0
-
>>60
ガチ違法だとみんなが認識してるやつはな
これは今現在みんなが問題ないと思ってるものと取り締まるものだから - 62 : 2021/08/07(土) 00:44:45.84 ID:s+8UOUvo0
-
うん、だからガチの奴らには意味ない技術よねって話
- 63 : 2021/08/07(土) 00:46:37.03 ID:Tv3+5NYwM
-
親が娘の水着をスマホで撮るだけでアウトになるんか
デジカメ復権やな - 64 : 2021/08/07(土) 00:47:25.21 ID:wEnJ1R+w0
-
さあ!震えるがいい!
- 65 : 2021/08/07(土) 00:48:16.36 ID:Prx3IVqf0
-
だから児童ポルノを装ったポリコレなのよこれ
実在児童の保護が目的では無いわけ - 69 : 2021/08/07(土) 01:51:28.32 ID:svpi2BXG0
-
>>65
ポリコレとか通り越して単に悪質な検閲システムになるだろこれ - 68 : 2021/08/07(土) 01:24:41.47 ID:N5/oIEVq0
-
二次元だけは勘弁してくれ
- 70 : 2021/08/07(土) 02:07:00.61 ID:Ze3SixEX0
-
これ以上どうしろと
- 71 : 2021/08/07(土) 02:21:20.33 ID:g10bKYBl0
-
基準は何だよ
海外の基準だとエ口イラストですら通報しそうだから洒落になんねーわ - 73 : 2021/08/07(土) 03:10:42.42 ID:mVMcCqnI0
-
これ差別じゃん
マイノリティを大事にする!とかさんざいってたのただのレクレーションかよ - 75 : 2021/08/07(土) 04:55:21.45 ID:BypYIiG70
-
iPhoneがそうならMacもそうなる?
- 76 : 2021/08/07(土) 06:22:56.86 ID:T4TQA30N0
-
アメリカ企業の情報倫理って中国と何も変わらんな
gmailも監視してるし協賛先への規制も厳しいし
マジでGAFA滅びろ - 81 : 2021/08/07(土) 08:00:52.83 ID:pSl7Blpld
-
>>76
国民がバカしかいないから自主判断に任せるってことができんのよ
中途半端に穴を残しちゃうと悪巧みに使う連中がゴロゴロ出てくる - 77 : 2021/08/07(土) 07:25:57.70 ID:+EmFFL+L0
-
ソニーが朝鮮とパチ●コに媚びてからさ
朝鮮玉入れという言葉が消えたよね - 78 : 2021/08/07(土) 07:35:22.51 ID:2e2EfyHKM
-
ちゃんとロリとロリババアを区別できるんだろうな
- 93 : 2021/08/07(土) 11:51:19.28 ID:OH53g/+w0
-
>>78
学園ものの制服着ててもみんな成人設定くらいは考慮してくんないとダメだよな - 82 : 2021/08/07(土) 08:08:43.08 ID:QqUnPEia0
-
限りなく児ポに見えるセーフ画像とかの線引きはどうなるんでひょうか?(^^
髪の長い女の子に見える男の子の乳首とか(^^
AIって優れてるみたいな考え持つ人多いでふがケツマイモを食品として認識するレベルでふよ?(^^
未成年に見えるようなアジア人の女性の脱ぎコラに男の乳首混入させたものとかまずAIは誤検知しまふよ(んなもん作ってどうするんだって話でふが)(^^僕がデッサン用に各地からかき集めた無修正チンハラ画像とかももしかしたら危ない気がしまふ(^^
- 86 : 2021/08/07(土) 08:33:42.22 ID:jFL143m5a
-
>>82
そんなAIでも男は美少女が好きと
ちゃんと判定してくれるだろ - 87 : 2021/08/07(土) 08:43:21.82 ID:jFL143m50
-
制約があっての自由だからやってみるべきだ
- 88 : 2021/08/07(土) 08:48:54.92 ID:ROZq4C7CM
-
朝起きたらおっさんが幼女になってたとか世界のどこかで毎日のようにおきてるけどさ
そんな自撮り画像も検閲されるのか? - 89 : 2021/08/07(土) 09:32:20.30 ID:tJPqxBIe0
-
会社は違うけどYouTubeのAIのバカさ加減から言って信頼できないし2次まで規制するならiPhoneはもう捨てるしかないな
- 90 : 2021/08/07(土) 10:59:03.92 ID:BypYIiG70
-
女名義のiPhoneに少女画像入っててもアウツだよな?
- 91 : 2021/08/07(土) 11:03:55.48 ID:z6vuj3Hkd
-
>>90
当然
元々は女子児童のエ口自撮り送信を止めるために作られた機能だし - 92 : 2021/08/07(土) 11:04:36.89 ID:Prx3IVqf0
-
男名義のiPhoneに少年画像が入っててもアウトだよ
- 94 : 2021/08/07(土) 12:41:00.01 ID:FWls0xUj0
-
イラストと実写の区別もつかない外人が日本のオタクのスマホの中身検閲するっていう滑稽さな
もうガラケー復権してそこに戻っちまおうか - 95 : 2021/08/07(土) 12:59:16.85 ID:bDrluM3M0
-
アメリカだけでやれよ
- 96 : 2021/08/07(土) 12:59:18.10 ID:cVYz9q2C0
-
アップル不買
- 97 : 2021/08/07(土) 13:01:38.64 ID:0l0Dd7L+r
-
クソAppleを捨てる時がきたな
みんなで買おう、国産スマホ - 101 : 2021/08/07(土) 15:03:50.45 ID:sCrQcMqZM
-
>>97
国産スマホつってもAndroidじゃね - 99 : 2021/08/07(土) 13:41:48.13 ID:+brhw0Tnp
-
基本的には訴えがあった画像の頭のデータ何桁をインデックス化するとかして総検索走らせて、それに合致するデータを通報していくんだろ
問題はそこじゃなくて、アップルgoogleマイクロソフトによる公然スパイ行為も、こっそり走査かけるのは合法になったってことだ
たぶん使用ライセンスでがちがちに権利剥いでくはず - 100 : 2021/08/07(土) 13:46:06.80 ID:P+xLDLH20
-
人権を守るのに児ポを取り締まるまではいいけど
実在しないものにまで口出してくるのは間違ってるわ - 102 : 2021/08/07(土) 15:31:37.54 ID:BypYIiG70
-
発覚したら、けーさつくるの?
- 103 : 2021/08/07(土) 15:39:35.16 ID:NA1+J0U00
-
>>102
児ポ検知されたデータがiCloudにアップロードされたらAppleが暗号化を解いて確認し通報するシステム
iCloudをオフにすればバレない - 104 : 2021/08/07(土) 15:45:43.80 ID:BGBPDvSj0
-
国内にいる限りは大丈夫だろうが、今後はアメリカに行ったらその時点で逮捕される可能性はある
今でもスマホのエ口画像が原因で海外の入管に捕まる事はあるが
今度は例えスマホを持っていかなくてもパスポートで個人情報を照会されるかもしれない - 105 : 2021/08/07(土) 16:12:47.72 ID:PhdWmM0fa
-
iCloudをオフにすれば問題ないが、そうなると端末の画像の保存方法がちょいと面倒になる。
- 106 : 2021/08/07(土) 16:37:18.30 ID:j1co35Ftx
-
これガースー政府が取り組んでる事でもあるからな
時期は分からんがグーグルも対策してくるはず - 107 : 2021/08/07(土) 16:45:51.86 ID:3f2HmEKm0
-
児ポを名目に個人の全画像にチェックかけるのが最高にヤバイ
こんなもん児ポの次・先まで見越してるに決まってる - 108 : 2021/08/07(土) 17:05:28.97 ID:Pvmwe8Y+0
-
2Dはok?
- 111 : 2021/08/07(土) 17:53:00.01 ID:YP5GjDWf0
-
>>108
アウトだろ
判断するのは外人だぞ - 126 : 2021/08/08(日) 00:45:00.09 ID:tx5EiGrD0
-
>>111
日本のマンガはほぼロリ判定されそう - 109 : 2021/08/07(土) 17:06:53.97 ID:tksMWIL/0
-
そこがOKじゃないなら日本人の半数が死んじゃう(´・ω・`)
- 112 : 2021/08/07(土) 17:58:24.99 ID:D1UjPz+Dd
-
自分の子供のプール遊びで逮捕される未来が見えてきたな
- 113 : 2021/08/07(土) 18:00:30.92 ID:nkIMHflRa
-
二次絵もMMDもアウト判定くらいそうだな
というか日本人の普通の写真もアウト判定くらいそうなんだが - 114 : 2021/08/07(土) 18:00:35.47 ID:zjYgZW9r0
-
Appleはプライバシーを守るとか言っててこれだもんな
- 115 : 2021/08/07(土) 19:04:43.77 ID:0kokb35v0
-
勝手に見られて通報されてアカウント停止されたら堪らんなw児童保護は大切だが
- 116 : 2021/08/07(土) 19:55:14.48 ID:sqBDHm8zd
-
検閲なら、写真のピープル機能で全部解析されてるじゃん。
多分iCloudと同期してないのは予備軍というか容疑者に挙げられてるよね。
それでもAndroidよりかは配慮されてると信じたい。 - 144 : 2021/08/08(日) 08:09:00.86 ID:w1AJ8IBi00808
-
>>116
現状見ると配慮されてるのはプライバシーではなく治安だろうな - 117 : 2021/08/07(土) 20:16:22.91 ID:cGaK3oxW0
-
>>1
これまずいだろ
エ口画像を探せるってことはそれ以外の全てもスパイ放題ってことだぞ
今すぐiOS端末捨てないと死ぬ殺される - 118 : 2021/08/07(土) 20:18:35.90 ID:cGaK3oxW0
-
監視社会とか言って街頭監視カメラに反対してる奴
今こそ革命のときだぞ
アップル本社を襲え破壊しろ - 127 : 2021/08/08(日) 01:10:51.46 ID:7emukDS/0
-
>>118
監視社会肯定者だけ監視すればいい
権力者は監視から逃れてるしな - 120 : 2021/08/07(土) 21:03:12.89 ID:UFHZBbjv0
-
Windows7に戻る時が来たようだな
- 121 : 2021/08/07(土) 21:09:11.19 ID:75egayRWM
-
素晴らしい。
文句あるならガラケーにすれば?w
- 122 : 2021/08/07(土) 21:34:53.90 ID:x2ta8j0N0
-
大前提として全てのデータを閲覧して判断する訳で
常に一企業に監視される訳だ
ポルノも何もかも全て見られて、児童かどうか判断すると
アップルとGoogleがその気になるだけで人類のほとんどを監視できる - 123 : 2021/08/07(土) 21:54:07.95 ID:BypYIiG70
-
2Dじゃなくても3DのCGもあるのに。
- 125 : 2021/08/08(日) 00:43:56.66 ID:tx5EiGrD0
-
これって画像で満足してた奴が
実行にうつしだしとか増えないだろうな?
禁酒法でもやらかしてるし
宗教関係者もレイプ多いし抑圧すると余計に増えるんじゃ無いのか?
- 138 : 2021/08/08(日) 04:07:18.28 ID:A1HPLMx+0
-
>>125
満足ってもそこには被害者がいるからな
自分で描けば問題ない - 128 : 2021/08/08(日) 01:13:12.04 ID:vMbeggsC0
-
ブリザード「ギクッ、おめーらiPhone捨てろ」
- 129 : 2021/08/08(日) 01:15:34.10 ID:nEsmdHIc0
-
パソコンでも何でも児童ポルノは検出して逮捕していい
- 132 : 2021/08/08(日) 02:33:52.14 ID:Xe++ew8CM
-
Appleって対Google意識してんのかプライバシー重視の姿勢だったよな?
それがいきなり反転して端末ローカルまでスキャンするってどういうこっちゃ - 133 : 2021/08/08(日) 02:50:17.36 ID:1M82DpiUa
-
DMMブックス入れてるだけで通報されそう
- 139 : 2021/08/08(日) 04:16:25.45 ID:sRoM3qoq0
-
>>133
DMMといえばfannzaの動画は酷いことになってるな
有名どころのAVでも販売終了しまくってるし終了してないものも
検索かけても出てこない言葉狩り
所詮AVなんてグレーゾーンで許されてるだけと言われればそれまでだけど
まっとうに買えたものが海外サイト利用した方が便利で見られるってどうなのよ - 145 : 2021/08/08(日) 10:46:30.13 ID:4vdmyZCk00808
-
>>139
モザでかすぎて使い物にならんしな
陰部隠すだけのモザがケツの穴まで隠れるほどデカくて濃いからもう論外ですわ
寝バックみたいな体位ですら女優のケツと男優のへそくらいまでモザあるし - 134 : 2021/08/08(日) 03:37:06.70 ID:whOWbifQ0
-
オープンソースOSの時代が来そう
- 135 : 2021/08/08(日) 03:45:54.57 ID:Wlpy2iVJ0
-
これ頭いい奴がロリ画像にウイルス仕込んどけば
逆にアップルをハッキングできそうじゃね
パスワードフリーの領域に侵入されたら大問題になりそう - 137 : 2021/08/08(日) 04:06:35.98 ID:I8/dc1f+0
-
ロリコンは全員死すべし
- 141 : 2021/08/08(日) 04:43:23.95 ID:zGIsrf/H0
-
米国の法執行機関のデータベースに登録されている画像と比較するってことは
そのデータベースには児童ポルノが大量に保存されてるってことだよね?
あかんやろ - 146 : 2021/08/08(日) 10:49:01.95 ID:DO2zD52K00808
-
>>141
日本でもまだビデオが主流だった時代は押収した裏ビデオが見られるからと保管場所に警官がたむろしてたなんて笑い話があったなーw - 142 : 2021/08/08(日) 06:23:01.39 ID:6/efCDMb0
-
shosi逝ったあああああ
- 143 : 2021/08/08(日) 06:24:34.15 ID:6/efCDMb0
-
ついでにshosi煽るためにshosiがJSライブチャットにチ●コ握り締めながら書き込んだ画像保存してる奴も逝く説
- 147 : 2021/08/08(日) 22:46:50.89 ID:1WfIY9VMM
-
epicが揶揄した方向行ってて草
- 148 : 2021/08/09(月) 05:29:34.44 ID:ksV4iNC40
-
アイドルやAV女優の画像とどうやって区別するんだ?
- 149 : 2021/08/09(月) 05:57:25.78 ID:3OOAUwVo0
-
検閲が目的やろ
反対したらロリコンのレッテル貼り
元スレ:https://krsw.5ch.net/test/read.cgi/ghard/1628241934
コメント