アップルがiPhone内の児童ポルノを検出し法的機関に通報するシステム開始 マイクロソフトとグーグルも

サムネイル
1 : 2021/08/06(金) 18:25:34.08 ID:h44zxVK3M
ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されて
いる画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が
開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。

ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、
チェックするものだという。

このニュースは、フィナンシャル・タイムズが最初に報じていた。フォーブスはアップルにコメントを求めている。

米国司法省は昨年、テクノロジー企業やソーシャルメディア企業に対し、子どもの性的搾取や虐待への対策を強化
することを目的とした「自主的原則」を発表し、違法なコンテンツを発見した場合、ただちに当局に報告するよう呼び
かけた。

マイクロソフトは、その後、企業がインターネット上の児童の性的虐待画像を特定するためのphotoDNAを作成した。
フェイスブックとグーグルも、画像の内容を確認しフラグを立てるシステムをすでに導入している。

ジョン・ホプキンス大学のセキュリティ研究者であるマシュー・グリーンは、アップルが個人のiPhoneをスキャンして
「禁止されたコンテンツ」を探すシステムを構築することは、「ダムを壊す」ことになり、米国政府がすべての人々の
端末を検閲することにつながりかねないと指摘した。

グリーンはさらに、AP通信に対し、アップルが他の国の政府からの圧力を受けて、別の情報をスキャンするように
なるのではないかという懸念を示している。

児童保護団体「National Council for Missing and Exploited Children」によると、フェイスブックが2020年に法執行
機関に報告した児童の性的虐待画像は、2000万件に達していた。この数字には、フェイスブックとインスタグラム上
の画像が含まれており、2019年の1600万件から上昇していた。
ht●tps://news.yahoo.co.jp/articles/822a14997fa069030940559a5f70d07018c8ff22

2 : 2021/08/06(金) 18:27:20.17 ID:wE+2PsrAp
これなんかの法律に引っかかるんじゃない?
3 : 2021/08/06(金) 18:28:08.43 ID:Cs9ggGvJ0
わざわざそんなシステムを入れるほど持ってるやつが多いの?(ドン引き)
4 : 2021/08/06(金) 18:29:27.08 ID:ixI4VA7nM
完全に検閲じゃん
デストピア到来待ったなし
5 : 2021/08/06(金) 18:36:25.01 ID:vDJ4jh3pp
これ児ポ関係なく他の画像も検出する奴だろ
6 : 2021/08/06(金) 18:48:34.08 ID:+RZToQgZ0
こんなことするのは中国とロシアだけだと思ったら
66 : 2021/08/07(土) 00:49:18.07 ID:2HHBw0uA0
>>6
共産党とリベラルの源流は同じで
結局、優れた思想をもつ指導者に従う流れになる
72 : 2021/08/07(土) 02:30:27.12 ID:YvRxzHrtM
>>66
保守がやると強権独裁主義で
共産がやると素晴らしいのかwwwww
7 : 2021/08/06(金) 18:54:27.85 ID:trOWn+pjM
水着とか引っかかると思うけどどうするんだ。
8 : 2021/08/06(金) 18:57:11.66 ID:4a3EdnaD0
アメリカなんかじゃ、自分の子の裸の写真撮影するだけで逮捕されるからな
9 : 2021/08/06(金) 19:06:29.40 ID:EpWq+OfG0
ロリコンは全て牢屋にぶち込め!
10 : 2021/08/06(金) 19:08:19.18 ID:OL16AIMUM
自分の子供や孫の写真が検出されて問題になるのか。
11 : 2021/08/06(金) 19:08:25.03 ID:sJAsMleK0
日本人は全てアウト判定くらいそう
31 : 2021/08/06(金) 20:50:59.63 ID:Hp24YYrF0
>>11
日本人のAV女優の画像保存してたらマジで引っかかりそうな気がするわ
12 : 2021/08/06(金) 19:09:28.69 ID:FNPLVwhRd
例えば自分の娘をプールにいれて写真をとる溺愛パパさんがいるとするじゃん
ソフトがこれは女児を盗撮するロリコンと判断して検出するじゃん
法機関が危険人物として検挙するじゃん

デストピア待ったなしだな

19 : 2021/08/06(金) 19:35:44.60 ID:lbAp1+We0
>>12
データベースに自分の娘の写真無いだろ
23 : 2021/08/06(金) 20:39:23.92 ID:FNPLVwhRd
>>19
なら新規でとった写真やロリビデオでは一切検挙できないとでも?んなわけないだろ、なんの意味があるんだよそれ
似通った条件で検索するようこういうのはできてるに決まってるだろ
だから自分の娘でも反応する
98 : 2021/08/07(土) 13:35:36.91 ID:C6en5Uh70
>>12
アメリカならそれ普通に犯罪だから
自分の娘に性犯罪するクソは刑務所で虐め殺されるに決まってる
131 : 2021/08/08(日) 01:38:21.07 ID:7emukDS/0
>>98
アメリカは問題の多い国だよなぁ
金持ちとエリートには楽しいらしいが
13 : 2021/08/06(金) 19:09:36.88 ID:xLymPEuLa
こういうスレ見るだけで警告が来そうだな
14 : 2021/08/06(金) 19:09:43.28 ID:KJVKutqI0
Shosi君ピンチ
15 : 2021/08/06(金) 19:10:32.55 ID:dMFqJgiM0
いいねこれどんどんやってほしい
困るのはゴキブリだけだしw
136 : 2021/08/08(日) 04:05:36.98 ID:A1HPLMx+0
>>15
イカの有名なチームがレイプしてたろ
16 : 2021/08/06(金) 19:11:14.47 ID:b+NFQx/Z0
2000万件って…
17 : 2021/08/06(金) 19:21:51.81 ID:oqszfTag0
shosiおわた
18 : 2021/08/06(金) 19:23:35.88 ID:+RZToQgZ0
胎児のエコー写真も高画質化したからアウトだな
20 : 2021/08/06(金) 19:40:43.46 ID:mnxuw8k0p
俺が幼女に転生したら自撮り出来ないじゃん…
21 : 2021/08/06(金) 19:50:26.50 ID:gfFoP1Zw0
虹専でも通報されんの
83 : 2021/08/07(土) 08:10:18.19 ID:bstL22wU0
便利になるようで実は不便になっていく世の中だなw

>>21
海外2次でもアウトになってるぞ カナダだったかな

140 : 2021/08/08(日) 04:27:58.65 ID:5A05uQjJ0
>>21
ロシアやカナダでは二次元も違法だからどう解釈するかだな
22 : 2021/08/06(金) 20:12:42.71 ID:1V5iqH0sa
同意無しにやったら集団訴訟待った無し
24 : 2021/08/06(金) 20:41:23.73 ID:XxcT+CF6p
アニメとかでも引っかかるのかね
25 : 2021/08/06(金) 20:43:34.10 ID:n+BiE0kN0
じゃあ俺のチ●コの写真写したらそれも全部チェックされるんか?
85 : 2021/08/07(土) 08:23:17.49 ID:8gMnO/H+0
>>25
短小包茎だったらそうかも
26 : 2021/08/06(金) 20:46:25.36 ID:KKYwHFA4a
MSもかなり前からOneDriveを機械的にスキャンしてたはず
28 : 2021/08/06(金) 20:48:17.47 ID:JB+RS7kp0
>>26
mp3保存してたら勝手に削除されてたわ
27 : 2021/08/06(金) 20:47:50.93 ID:v169fGzP0
PCゲー以外はLinuxにしないと駄目だな
30 : 2021/08/06(金) 20:50:28.64 ID:pf+MCTio0
これくらいやらないとな隠れ犯罪者は消えないよ
しょーしは覚悟しとけ
32 : 2021/08/06(金) 20:54:17.63 ID:oAle1knR0
ディストピアー♪@MEGADETH
デストピアって間違えてるのはわざと?w
55 : 2021/08/07(土) 00:16:06.53 ID:XNIP/8qgM
クラウドにあげたデータはともかく個人端末の中まで勝手に検索とかさすがさすが

>>32
デストピアでググれ

33 : 2021/08/06(金) 20:56:43.89 ID:4tDVL16/d
むしろ今までもやってただろレベル
34 : 2021/08/06(金) 21:02:48.32 ID:oKcl99bQ0
どうせならデータ破壊かサイレント削除やれば良いのに。
36 : 2021/08/06(金) 21:30:21.34 ID:5MwmJBZK0
iPhoneやめてええなこれは
37 : 2021/08/06(金) 21:33:28.66 ID:9XQQMlh00
全国の小学校教員が一斉逮捕されそう
38 : 2021/08/06(金) 21:34:09.08 ID:tmqn81Gfa
検閲はさすがにダメでしょ
40 : 2021/08/06(金) 21:44:46.59 ID:Fc96c5UNd
iCloudならともかく端末の覗くとか違法だろ!こっちが通報したるわ!
41 : 2021/08/06(金) 21:52:21.25 ID:ouksvZSp0
ロリコン
ゲイ
バイセクシャル
トランスセクシャルの
LGBTのロリを規制するとはなんたる人権侵害
42 : 2021/08/06(金) 21:57:26.37 ID:X+6LKtKv0
ロリコンは4ね
43 : 2021/08/06(金) 21:58:12.97 ID:F1CUCxwd0
ロリコンはほんと気持ち悪い
44 : 2021/08/06(金) 22:42:44.62 ID:dZ8pCdKV0
自分で描いた絵ならかなりあるな
これで文句つけられたら表現法違反だろ
45 : 2021/08/06(金) 22:48:39.52 ID:dZ8pCdKV0
米国法だと成人ならおま●こ見えててもなんでも良いのか
いい加減年齢で区切るのやめたら?バカじゃね?
46 : 2021/08/06(金) 23:23:11.51 ID:zSS7UYlxd
>>45
いや。それ言う?
47 : 2021/08/06(金) 23:30:57.62 ID:KDsZI10R0
macだってwindowsだって中検閲されるかもしれんぞ?
48 : 2021/08/06(金) 23:51:57.58 ID:ZzJajmpI0
これが問題なのは絵よな
向こうの人絵と実写の区別つかないから
49 : 2021/08/06(金) 23:54:05.70 ID:3rZ/XmE00
AIである程度はもう自動判定できるようになるやろ
50 : 2021/08/07(土) 00:00:51.55 ID:Prx3IVqf0
AIがイラストは弾いてくれるといいけど、まあイラストも対象だろな

ロリキャラの水着イベントとかやってるソシャゲも米国では全部バンになるかと

74 : 2021/08/07(土) 04:26:37.32 ID:hIqubBiU0
>>50
AIさんて黒人とゴリラの区別もつかないんでしょ?
51 : 2021/08/07(土) 00:00:54.08 ID:WVOTV4Bh0
アニメとか2次元キャラの画像だけでも通報されそうw
52 : 2021/08/07(土) 00:03:57.86 ID:ivUxZpXl0
日本人女とか成人しててもロリ判定されそう
53 : 2021/08/07(土) 00:08:49.38 ID:Prx3IVqf0
これ児童ポルノ対策を装ったポリコレだもん
漫画を56す気だね、間違い無いわ
54 : 2021/08/07(土) 00:14:47.28 ID:RcqhSTbFM
これはさすがにやり過ぎ
違法ファイルとは言えその手の画像なんかでガス抜きしてやり過ごしてる隠れ児童性愛者は多いはず
もしそういったものを一切合切取り上げられたらそういう奴らもどう出るかわからんぞ
56 : 2021/08/07(土) 00:21:18.75 ID:Prx3IVqf0
つーかイラスト抜きにしたら児童ポルノの画像を2000万も集めるのは普通に無理なはず

しかもインスタとフェイスブックに普通に投稿されているらしい
まあ二次イラストがほとんどだろうな

57 : 2021/08/07(土) 00:27:06.90 ID:QRgkw9uI0
すげえな、人権とか完全に無視じゃん
58 : 2021/08/07(土) 00:29:24.34 ID:sMDpWiX90
エ口動画編集して各端末の写り具合のチェックにクラウド利用して、即削除してたけど、迂闊にそういうのも出来ないな
59 : 2021/08/07(土) 00:32:02.32 ID:792sK52x0
みんな書いてるけど
これ普通に虹エ口も対象だと思うよ
北米では元々虹エ口厳しいし、
当然これ北米基準でやるだろうからな
80 : 2021/08/07(土) 07:55:07.07 ID:zLUCYHGsp
>>59
ゲハ民99%逮捕されちゃうじゃん。
60 : 2021/08/07(土) 00:34:43.81 ID:s+8UOUvo0
こんなのアイビスペイントみたいな画像編集アプリで
適当な画像の下レイヤーに保存すればいいだけじゃね
見られるのがpngかjpgだけならtiffとかpsdで保存しとけばいいし
ちょっと画像の知識もってりゃいくらでも隠せると思うが
61 : 2021/08/07(土) 00:37:54.54 ID:Prx3IVqf0
>>60
ガチ違法だとみんなが認識してるやつはな
これは今現在みんなが問題ないと思ってるものと取り締まるものだから
62 : 2021/08/07(土) 00:44:45.84 ID:s+8UOUvo0
うん、だからガチの奴らには意味ない技術よねって話
63 : 2021/08/07(土) 00:46:37.03 ID:Tv3+5NYwM
親が娘の水着をスマホで撮るだけでアウトになるんか
デジカメ復権やな
64 : 2021/08/07(土) 00:47:25.21 ID:wEnJ1R+w0
さあ!震えるがいい!
65 : 2021/08/07(土) 00:48:16.36 ID:Prx3IVqf0
だから児童ポルノを装ったポリコレなのよこれ
実在児童の保護が目的では無いわけ
69 : 2021/08/07(土) 01:51:28.32 ID:svpi2BXG0
>>65
ポリコレとか通り越して単に悪質な検閲システムになるだろこれ
68 : 2021/08/07(土) 01:24:41.47 ID:N5/oIEVq0
二次元だけは勘弁してくれ
70 : 2021/08/07(土) 02:07:00.61 ID:Ze3SixEX0
これ以上どうしろと
71 : 2021/08/07(土) 02:21:20.33 ID:g10bKYBl0
基準は何だよ
海外の基準だとエ口イラストですら通報しそうだから洒落になんねーわ
73 : 2021/08/07(土) 03:10:42.42 ID:mVMcCqnI0
これ差別じゃん
マイノリティを大事にする!とかさんざいってたのただのレクレーションかよ
75 : 2021/08/07(土) 04:55:21.45 ID:BypYIiG70
iPhoneがそうならMacもそうなる?
76 : 2021/08/07(土) 06:22:56.86 ID:T4TQA30N0
アメリカ企業の情報倫理って中国と何も変わらんな
gmailも監視してるし協賛先への規制も厳しいし
マジでGAFA滅びろ
81 : 2021/08/07(土) 08:00:52.83 ID:pSl7Blpld
>>76
国民がバカしかいないから自主判断に任せるってことができんのよ
中途半端に穴を残しちゃうと悪巧みに使う連中がゴロゴロ出てくる
77 : 2021/08/07(土) 07:25:57.70 ID:+EmFFL+L0
ソニーが朝鮮とパチ●コに媚びてからさ
朝鮮玉入れという言葉が消えたよね
78 : 2021/08/07(土) 07:35:22.51 ID:2e2EfyHKM
ちゃんとロリとロリババアを区別できるんだろうな
93 : 2021/08/07(土) 11:51:19.28 ID:OH53g/+w0
>>78
学園ものの制服着ててもみんな成人設定くらいは考慮してくんないとダメだよな
82 : 2021/08/07(土) 08:08:43.08 ID:QqUnPEia0
限りなく児ポに見えるセーフ画像とかの線引きはどうなるんでひょうか?(^^
髪の長い女の子に見える男の子の乳首とか(^^
AIって優れてるみたいな考え持つ人多いでふがケツマイモを食品として認識するレベルでふよ?(^^
未成年に見えるようなアジア人の女性の脱ぎコラに男の乳首混入させたものとかまずAIは誤検知しまふよ(んなもん作ってどうするんだって話でふが)(^^

僕がデッサン用に各地からかき集めた無修正チンハラ画像とかももしかしたら危ない気がしまふ(^^

86 : 2021/08/07(土) 08:33:42.22 ID:jFL143m5a
>>82
そんなAIでも男は美少女が好きと
ちゃんと判定してくれるだろ
87 : 2021/08/07(土) 08:43:21.82 ID:jFL143m50
制約があっての自由だからやってみるべきだ
88 : 2021/08/07(土) 08:48:54.92 ID:ROZq4C7CM
朝起きたらおっさんが幼女になってたとか世界のどこかで毎日のようにおきてるけどさ
そんな自撮り画像も検閲されるのか?
89 : 2021/08/07(土) 09:32:20.30 ID:tJPqxBIe0
会社は違うけどYouTubeのAIのバカさ加減から言って信頼できないし2次まで規制するならiPhoneはもう捨てるしかないな
90 : 2021/08/07(土) 10:59:03.92 ID:BypYIiG70
女名義のiPhoneに少女画像入っててもアウツだよな?
91 : 2021/08/07(土) 11:03:55.48 ID:z6vuj3Hkd
>>90
当然
元々は女子児童のエ口自撮り送信を止めるために作られた機能だし
92 : 2021/08/07(土) 11:04:36.89 ID:Prx3IVqf0
男名義のiPhoneに少年画像が入っててもアウトだよ
94 : 2021/08/07(土) 12:41:00.01 ID:FWls0xUj0
イラストと実写の区別もつかない外人が日本のオタクのスマホの中身検閲するっていう滑稽さな
もうガラケー復権してそこに戻っちまおうか
95 : 2021/08/07(土) 12:59:16.85 ID:bDrluM3M0
アメリカだけでやれよ
96 : 2021/08/07(土) 12:59:18.10 ID:cVYz9q2C0
アップル不買
97 : 2021/08/07(土) 13:01:38.64 ID:0l0Dd7L+r
クソAppleを捨てる時がきたな
みんなで買おう、国産スマホ
101 : 2021/08/07(土) 15:03:50.45 ID:sCrQcMqZM
>>97
国産スマホつってもAndroidじゃね
99 : 2021/08/07(土) 13:41:48.13 ID:+brhw0Tnp
基本的には訴えがあった画像の頭のデータ何桁をインデックス化するとかして総検索走らせて、それに合致するデータを通報していくんだろ
問題はそこじゃなくて、アップルgoogleマイクロソフトによる公然スパイ行為も、こっそり走査かけるのは合法になったってことだ
たぶん使用ライセンスでがちがちに権利剥いでくはず
100 : 2021/08/07(土) 13:46:06.80 ID:P+xLDLH20
人権を守るのに児ポを取り締まるまではいいけど
実在しないものにまで口出してくるのは間違ってるわ
102 : 2021/08/07(土) 15:31:37.54 ID:BypYIiG70
発覚したら、けーさつくるの?
103 : 2021/08/07(土) 15:39:35.16 ID:NA1+J0U00
>>102
児ポ検知されたデータがiCloudにアップロードされたらAppleが暗号化を解いて確認し通報するシステム
iCloudをオフにすればバレない
104 : 2021/08/07(土) 15:45:43.80 ID:BGBPDvSj0
国内にいる限りは大丈夫だろうが、今後はアメリカに行ったらその時点で逮捕される可能性はある
今でもスマホのエ口画像が原因で海外の入管に捕まる事はあるが
今度は例えスマホを持っていかなくてもパスポートで個人情報を照会されるかもしれない
105 : 2021/08/07(土) 16:12:47.72 ID:PhdWmM0fa
iCloudをオフにすれば問題ないが、そうなると端末の画像の保存方法がちょいと面倒になる。
106 : 2021/08/07(土) 16:37:18.30 ID:j1co35Ftx
これガースー政府が取り組んでる事でもあるからな
時期は分からんがグーグルも対策してくるはず
107 : 2021/08/07(土) 16:45:51.86 ID:3f2HmEKm0
児ポを名目に個人の全画像にチェックかけるのが最高にヤバイ
こんなもん児ポの次・先まで見越してるに決まってる
108 : 2021/08/07(土) 17:05:28.97 ID:Pvmwe8Y+0
2Dはok?
111 : 2021/08/07(土) 17:53:00.01 ID:YP5GjDWf0
>>108
アウトだろ
判断するのは外人だぞ
126 : 2021/08/08(日) 00:45:00.09 ID:tx5EiGrD0
>>111
日本のマンガはほぼロリ判定されそう
109 : 2021/08/07(土) 17:06:53.97 ID:tksMWIL/0
そこがOKじゃないなら日本人の半数が死んじゃう(´・ω・`)
112 : 2021/08/07(土) 17:58:24.99 ID:D1UjPz+Dd
自分の子供のプール遊びで逮捕される未来が見えてきたな
113 : 2021/08/07(土) 18:00:30.92 ID:nkIMHflRa
二次絵もMMDもアウト判定くらいそうだな
というか日本人の普通の写真もアウト判定くらいそうなんだが
114 : 2021/08/07(土) 18:00:35.47 ID:zjYgZW9r0
Appleはプライバシーを守るとか言っててこれだもんな
115 : 2021/08/07(土) 19:04:43.77 ID:0kokb35v0
勝手に見られて通報されてアカウント停止されたら堪らんなw児童保護は大切だが
116 : 2021/08/07(土) 19:55:14.48 ID:sqBDHm8zd
検閲なら、写真のピープル機能で全部解析されてるじゃん。
多分iCloudと同期してないのは予備軍というか容疑者に挙げられてるよね。
それでもAndroidよりかは配慮されてると信じたい。
144 : 2021/08/08(日) 08:09:00.86 ID:w1AJ8IBi00808
>>116
現状見ると配慮されてるのはプライバシーではなく治安だろうな
117 : 2021/08/07(土) 20:16:22.91 ID:cGaK3oxW0
>>1
これまずいだろ
エ口画像を探せるってことはそれ以外の全てもスパイ放題ってことだぞ
今すぐiOS端末捨てないと死ぬ殺される
118 : 2021/08/07(土) 20:18:35.90 ID:cGaK3oxW0
監視社会とか言って街頭監視カメラに反対してる奴
今こそ革命のときだぞ
アップル本社を襲え破壊しろ
127 : 2021/08/08(日) 01:10:51.46 ID:7emukDS/0
>>118
監視社会肯定者だけ監視すればいい
権力者は監視から逃れてるしな
120 : 2021/08/07(土) 21:03:12.89 ID:UFHZBbjv0
Windows7に戻る時が来たようだな
121 : 2021/08/07(土) 21:09:11.19 ID:75egayRWM
素晴らしい。

文句あるならガラケーにすれば?w

122 : 2021/08/07(土) 21:34:53.90 ID:x2ta8j0N0
大前提として全てのデータを閲覧して判断する訳で
常に一企業に監視される訳だ
ポルノも何もかも全て見られて、児童かどうか判断すると
アップルとGoogleがその気になるだけで人類のほとんどを監視できる
123 : 2021/08/07(土) 21:54:07.95 ID:BypYIiG70
2Dじゃなくても3DのCGもあるのに。
125 : 2021/08/08(日) 00:43:56.66 ID:tx5EiGrD0
これって画像で満足してた奴が
実行にうつしだしとか増えないだろうな?
禁酒法でもやらかしてるし
宗教関係者もレイプ多いし

抑圧すると余計に増えるんじゃ無いのか?

138 : 2021/08/08(日) 04:07:18.28 ID:A1HPLMx+0
>>125
満足ってもそこには被害者がいるからな
自分で描けば問題ない
128 : 2021/08/08(日) 01:13:12.04 ID:vMbeggsC0
ブリザード「ギクッ、おめーらiPhone捨てろ」
129 : 2021/08/08(日) 01:15:34.10 ID:nEsmdHIc0
パソコンでも何でも児童ポルノは検出して逮捕していい
132 : 2021/08/08(日) 02:33:52.14 ID:Xe++ew8CM
Appleって対Google意識してんのかプライバシー重視の姿勢だったよな?
それがいきなり反転して端末ローカルまでスキャンするってどういうこっちゃ
133 : 2021/08/08(日) 02:50:17.36 ID:1M82DpiUa
DMMブックス入れてるだけで通報されそう
139 : 2021/08/08(日) 04:16:25.45 ID:sRoM3qoq0
>>133
DMMといえばfannzaの動画は酷いことになってるな
有名どころのAVでも販売終了しまくってるし終了してないものも
検索かけても出てこない言葉狩り
所詮AVなんてグレーゾーンで許されてるだけと言われればそれまでだけど
まっとうに買えたものが海外サイト利用した方が便利で見られるってどうなのよ
145 : 2021/08/08(日) 10:46:30.13 ID:4vdmyZCk00808
>>139
モザでかすぎて使い物にならんしな
陰部隠すだけのモザがケツの穴まで隠れるほどデカくて濃いからもう論外ですわ
寝バックみたいな体位ですら女優のケツと男優のへそくらいまでモザあるし
134 : 2021/08/08(日) 03:37:06.70 ID:whOWbifQ0
オープンソースOSの時代が来そう
135 : 2021/08/08(日) 03:45:54.57 ID:Wlpy2iVJ0
これ頭いい奴がロリ画像にウイルス仕込んどけば
逆にアップルをハッキングできそうじゃね
パスワードフリーの領域に侵入されたら大問題になりそう
137 : 2021/08/08(日) 04:06:35.98 ID:I8/dc1f+0
ロリコンは全員死すべし
141 : 2021/08/08(日) 04:43:23.95 ID:zGIsrf/H0
米国の法執行機関のデータベースに登録されている画像と比較するってことは
そのデータベースには児童ポルノが大量に保存されてるってことだよね?
あかんやろ
146 : 2021/08/08(日) 10:49:01.95 ID:DO2zD52K00808
>>141
日本でもまだビデオが主流だった時代は押収した裏ビデオが見られるからと保管場所に警官がたむろしてたなんて笑い話があったなーw
142 : 2021/08/08(日) 06:23:01.39 ID:6/efCDMb0
shosi逝ったあああああ
143 : 2021/08/08(日) 06:24:34.15 ID:6/efCDMb0
ついでにshosi煽るためにshosiがJSライブチャットにチ●コ握り締めながら書き込んだ画像保存してる奴も逝く説
147 : 2021/08/08(日) 22:46:50.89 ID:1WfIY9VMM
epicが揶揄した方向行ってて草
148 : 2021/08/09(月) 05:29:34.44 ID:ksV4iNC40
アイドルやAV女優の画像とどうやって区別するんだ?
149 : 2021/08/09(月) 05:57:25.78 ID:3OOAUwVo0
検閲が目的やろ
反対したらロリコンのレッテル貼り

元スレ:https://krsw.5ch.net/test/read.cgi/ghard/1628241934

コメント

タイトルとURLをコピーしました