ここでは虹裏imgのかなり古い過去ログを閲覧することができます。
21/06/13(日)12:43:27 No.812756268
肌色禁止カメラ?
1 21/06/13(日)12:44:44 No.812756618
ホラなんかこうできるじゃろ…… でーぷらーにんぐとかいうので
2 21/06/13(日)12:45:36 No.812756843
そのロリポルノ検知AIは悪用できそうだな
3 21/06/13(日)12:45:50 No.812756919
無茶振りだろ
4 21/06/13(日)12:45:57 No.812756956
促すだけか良かった てっきり数百億で電通に任せるのかと
5 21/06/13(日)12:46:00 No.812756971
何をどうするつもりなんだ
6 21/06/13(日)12:46:02 No.812756978
保護者が指導すべき事柄をメーカーに丸投げして解決したつもりになるな
7 21/06/13(日)12:46:14 No.812757043
ではまず不適切な自撮り画像を2億枚下さい!
8 21/06/13(日)12:46:15 No.812757045
邪悪おじさんは催眠が使えるからそっちの禁止が先だぜ
9 21/06/13(日)12:46:29 No.812757126
サーバーに一旦送ってAIが裸かどうか判定させるんじゃない? サーバーに送ったデータがどうなるかは知らない
10 21/06/13(日)12:46:57 No.812757263
不適切か否かのラインはどうすんの
11 21/06/13(日)12:46:57 No.812757265
カメラつけなきゃいいんじゃ?
12 21/06/13(日)12:47:38 No.812757437
そんな場当たり的で無茶な対策を要求する前に 情操とネットリテラシーの教育に力を入れるとかすべきじゃないのかね
13 21/06/13(日)12:47:42 No.812757448
ぐぐる先生が勝手に判断してくれるじゃろ
14 21/06/13(日)12:47:57 No.812757533
ゴリラとか写そうとしたら黒人の裸ですって怒られるんでしょ
15 21/06/13(日)12:47:59 No.812757543
ではお役人さま 学習に必要なポルノ画像を用意してくださいませ
16 21/06/13(日)12:48:12 No.812757613
日本の会社だけが出してまた日本企業のシェアが下がるやつ
17 21/06/13(日)12:48:30 No.812757728
自動でナメック星人カラーに変換されます
18 21/06/13(日)12:48:43 No.812757798
エロフィギュアの写真が撮れなくなってしまう
19 21/06/13(日)12:48:57 ID:OnsPZZHM OnsPZZHM No.812757864
>学習に必要なポルノ画像を用意してくださいませ 警察がたくさん持ってそう
20 21/06/13(日)12:49:09 No.812757936
送らされるってどうやって…?
21 21/06/13(日)12:49:15 ID:OnsPZZHM OnsPZZHM No.812757969
>大相撲の写真が撮れなくなってしまう
22 21/06/13(日)12:49:44 No.812758125
>送らされるってどうやって…? 催眠アプリで
23 21/06/13(日)12:50:08 No.812758240
お役人よりも選挙で選ばれたトップの人間が頭悪いだけじゃ
24 21/06/13(日)12:50:09 No.812758247
スレ画のシステム作るならその開発力は他に回した方が絶対いいよ… アホじゃん
25 21/06/13(日)12:50:23 No.812758318
ソースのURLを貼らないニューススレdel
26 21/06/13(日)12:51:02 No.812758498
どっかのaiが玉ねぎの色でエロ扱いしてたしこれもそんな感じになりそう
27 21/06/13(日)12:51:13 No.812758551
送らされるってなんだ 地鶏してる連中なんて自己顕示欲と承認欲求で行動してるだけだろ 他人に促されてやったみたいな書き方はよくない
28 21/06/13(日)12:51:58 No.812758770
>不適切か否かのラインはどうすんの 委員会を設立して予算を組みます
29 21/06/13(日)12:52:06 No.812758805
>>送らされるってどうやって…? >催眠アプリで 催眠アプリ規制する方が早そう
30 21/06/13(日)12:52:20 No.812758868
このAI開発する仕事楽しそう
31 21/06/13(日)12:52:30 No.812758920
中国みたい
32 21/06/13(日)12:52:33 No.812758934
異色肌エロの時代が来るー?
33 21/06/13(日)12:52:52 No.812759025
イギリスだったかが作ったポルノ取り締まりAI作ったけど砂漠と格闘家の画像ばっか摘発して全く役に立たないって事件あったな
34 21/06/13(日)12:53:10 No.812759112
https://www.yomiuri.co.jp/politics/20210612-OYT1T50370/amp/
35 21/06/13(日)12:53:16 No.812759134
1回サーバーに送信してサーバーで一元的に判定するシステムにしよう
36 21/06/13(日)12:53:31 No.812759202
促したって言って研究させて後で安く買い叩くんだよ んでクソみたいな精度のアプリができる
37 21/06/13(日)12:54:10 No.812759397
全世界的に偉い人がポルノ嫌いを直すほうがいいな
38 21/06/13(日)12:54:50 No.812759566
>https://www.yomiuri.co.jp/politics/20210612-OYT1T50370/amp/ スマホ版のURLdel
39 21/06/13(日)12:54:51 No.812759572
なんだっけ 中学生以下の写真は着衣の有無や性別を問わず全て児童ポルノだから撮るなって言った人もいたな
40 21/06/13(日)12:55:23 No.812759704
>肌色禁止カメラ? ホイ差別
41 21/06/13(日)12:55:27 No.812759728
>なんだっけ >中学生以下の写真は着衣の有無や性別を問わず全て児童ポルノだから撮るなって言った人もいたな 思い出の写真は高校以上からかあ
42 21/06/13(日)12:56:14 No.812759971
>どっかのaiが玉ねぎの色でエロ扱いしてたしこれもそんな感じになりそう くぅ~上からも下からもうんたらかんたら
43 21/06/13(日)12:56:20 No.812759999
プリンストールのカメラアプリなんか使わんだろ グーグルとアップルに未成年のおマンコ判別のAI開発させるのか
44 21/06/13(日)12:56:40 No.812760106
>なんだっけ >中学生以下の写真は着衣の有無や性別を問わず全て児童ポルノだから撮るなって言った人もいたな コワ~…
45 21/06/13(日)12:56:58 No.812760198
判定にAIじゃなく人を雇えば!
46 21/06/13(日)12:57:24 No.812760343
検証環境となるメスガキテストセンターの創設が望まれる
47 21/06/13(日)12:57:25 No.812760349
>>なんだっけ >>中学生以下の写真は着衣の有無や性別を問わず全て児童ポルノだから撮るなって言った人もいたな >コワ~… 藁人形遊び楽しい?
48 21/06/13(日)12:57:36 No.812760398
上手に煮卵できたから撮影したかったのに畜生!
49 21/06/13(日)12:57:45 No.812760442
>なんだっけ >中学生以下の写真は着衣の有無や性別を問わず全て児童ポルノだから撮るなって言った人もいたな ここまで極端だとお前がそういう目で見てるだけだろと言われても仕方ないな…
50 21/06/13(日)12:58:01 No.812760506
教育でどうこうなるだろうか…?
51 21/06/13(日)12:58:21 No.812760593
わかる 園児や小学生の写真なんて盗撮じゃん 本人の許可なんて出せる歳じゃないんだから
52 21/06/13(日)12:59:19 No.812760864
>藁人形遊び楽しい? 藁?
53 21/06/13(日)12:59:29 No.812760922
ここから架空のフェミニストを叩いて悦に入るスレ
54 21/06/13(日)12:59:31 No.812760933
>他人に促されてやったみたいな書き方はよくない ワタナベマホト…
55 21/06/13(日)12:59:38 No.812760966
https://www.gizmodo.jp/2017/12/british-cops-want-to-use-ai-to-spot-porn-but-it-keeps-mistaking-desert-pics-for-nudes.html 児ポ/砂漠問題はもう解決したんだろうか…
56 21/06/13(日)13:00:23 No.812761211
疑わしきは罰する時代
57 21/06/13(日)13:00:49 No.812761340
虚構新聞じゃないのかよ…
58 21/06/13(日)13:01:26 No.812761545
子供用にカメラ無しスマホを作って18歳未満はそれしか買えなくしたほうが早そうだけど そうすると今度は親がカメラ付きを買い与えそうだな
59 21/06/13(日)13:01:49 No.812761686
子どもがスマホ持ってたら親を罰する法律を作ればいいだけだ
60 21/06/13(日)13:01:59 No.812761732
乳首とかは自動的にモザイクが掛かるようになるとか…?
61 21/06/13(日)13:02:13 No.812761811
>そうすると今度は親がカメラ付きを買い与えそうだな 購入者が罰せられればそれでいいでしょ
62 21/06/13(日)13:02:34 No.812761907
逆に考えて欲しい自分の裸は卑猥なのか?罪であるのか?を
63 21/06/13(日)13:03:11 No.812762097
迂闊にSNSに自分の子供の写真上げて児ポ通報される親も減るだろう
64 21/06/13(日)13:03:31 No.812762209
>https://www.gizmodo.jp/2017/12/british-cops-want-to-use-ai-to-spot-porn-but-it-keeps-mistaking-desert-pics-for-nudes.html アドレスにすべて書いてあるのちょっと面白い
65 21/06/13(日)13:03:35 No.812762231
>逆に考えて欲しい自分の裸は卑猥なのか?罪であるのか?を 卑猥でも罪でもないよ 価値があるから適当に放り出しちゃダメなんだ
66 21/06/13(日)13:04:09 No.812762417
太く映るようにしたらアップしないかもしれない
67 21/06/13(日)13:04:36 No.812762560
女児男児の体に興奮する人全員しょっ引いた方が楽じゃないかな
68 21/06/13(日)13:05:25 No.812762809
>女児男児の体に興奮する人全員しょっ引いた方が楽じゃないかな 何百万何千万単位でしょっぴくことになるだろうから全然楽じゃないと思うぞ
69 21/06/13(日)13:05:40 No.812762878
子供用に機能制限したスマホ渡すだけでいいのに
70 21/06/13(日)13:05:45 No.812762901
>女児男児の体に興奮する人全員しょっ引いた方が楽じゃないかな 多分「興奮」の定義をきめるだけで5年はかかると思う
71 21/06/13(日)13:06:18 No.812763096
俺が俺のチンポ撮れないようになるのか 理不尽な…
72 21/06/13(日)13:06:34 No.812763180
本当にちゃんとした精度でできたらすごいけどね できるわけねえけど
73 21/06/13(日)13:06:57 No.812763298
>女児男児の体に興奮する人全員しょっ引いた方が楽じゃないかな マジレスするけど「興奮する」のは仕方ねぇんじゃないかな これに限らず人間いろんな誘惑に駆られても 「でも犯罪だからしない」でみんな我慢してるんだから
74 21/06/13(日)13:07:16 No.812763394
相撲の写真撮ったらBANされそう
75 21/06/13(日)13:07:26 No.812763446
不適切の判定をどこの誰がするんだよ
76 21/06/13(日)13:07:37 No.812763510
19歳と18歳の判別どうするの?
77 21/06/13(日)13:07:41 No.812763537
>そんな場当たり的で無茶な対策を要求する前に >情操とネットリテラシーの教育に力を入れるとかすべきじゃないのかね 性教育すら義務教育のカリキュラムに入ってないのにそんなことする訳がない
78 21/06/13(日)13:07:44 No.812763553
キタ━━━━━━(゚∀゚)━━━━━━ !!!!!
79 21/06/13(日)13:08:08 No.812763690
ツイッターランキングとか見ると 明らかに「自分で撮りました」って感じの素人動画ぽこぽこでてくるよね
80 21/06/13(日)13:08:08 No.812763691
え!?自動で青肌コラを!?
81 21/06/13(日)13:08:11 No.812763707
逆にハメ撮り以外撮れないカメラにしてしまえばいいのでは?
82 21/06/13(日)13:08:18 No.812763749
未成年の事よくない目で見てる…
83 21/06/13(日)13:08:34 No.812763852
不適切かどうかの判断は任せてくれ 俺がその任に就く
84 21/06/13(日)13:09:13 No.812764036
これ人を斬れない包丁作れって言ってない?
85 21/06/13(日)13:09:24 No.812764105
>不適切かどうかの判断は任せてくれ >俺がその任に就く 多分楽しいのは最初の一日ぐらいで あとは「俺は貴重なオナネタで興奮出来ない体になった」で嘆くだけだよ
86 21/06/13(日)13:09:24 No.812764107
>不適切の判定をどこの誰がするんだよ いったんimgに投稿されてそうだねとdelのどっちが多くついたかで
87 21/06/13(日)13:09:29 No.812764133
加工で色反転したらすり抜けるよねこれ
88 21/06/13(日)13:09:53 No.812764254
>1623557264067.png うんちやん
89 21/06/13(日)13:10:20 No.812764398
ソフトで認識は絶対ムリだからスマホカメラ潰したほうが早い
90 21/06/13(日)13:10:35 No.812764476
この仕組みを開発するためのお金はどこから? 政府はお願いするだけ?
91 21/06/13(日)13:10:49 No.812764561
スジを検知して全ての自撮りにチンポが合成されるようにしよう
92 21/06/13(日)13:10:49 No.812764566
>加工で色反転したらすり抜けるよねこれ 撮った瞬間判定するに決まっとるやん
93 21/06/13(日)13:10:54 No.812764590
>うんちやん うーわ…
94 21/06/13(日)13:11:00 No.812764628
今の技術では不可能であることを除けば完璧な理論
95 21/06/13(日)13:11:05 No.812764653
お上の認識がこんなんだからバカにされるんだよ…
96 21/06/13(日)13:11:44 No.812764859
紙幣のコピーやスキャンは機械側がチェックしてるから そのうちそれと同等になりそう
97 21/06/13(日)13:12:10 No.812764994
THE丸投げすぎる
98 21/06/13(日)13:12:21 No.812765059
黒人がセーフで物議をかもすようになるんだ…
99 21/06/13(日)13:12:39 No.812765138
>紙幣のコピーやスキャンは機械側がチェックしてるから 児ポが紙幣みたいに特定数種しかないなら可能だけどさあ…
100 21/06/13(日)13:12:44 No.812765173
>紙幣のコピーやスキャンは機械側がチェックしてるから >そのうちそれと同等になりそう 人間の肌にぼかしを埋め込んでチェックするの?
101 21/06/13(日)13:13:04 No.812765294
どうようのシステムは既に開発されて販売もされているんだけど無知な「」は当然知らないで騒いでいるってわけ
102 21/06/13(日)13:13:13 No.812765335
案件が案件だけに何か対応しなきゃいけないのはわかるけどもうちょっとこう…
103 21/06/13(日)13:13:16 No.812765351
よくわかんねーけどそのえーあいっての使えば何でもできるんだろ?
104 21/06/13(日)13:13:36 No.812765471
消しでディケイドが付くんだ
105 21/06/13(日)13:13:45 No.812765528
送ったメールなりメッセージなり全部親にBCCさせるでいいんじゃねーかな
106 21/06/13(日)13:14:12 No.812765680
>どうようのシステムは既に開発されて販売もされているんだけど無知な「」は当然知らないで騒いでいるってわけ 既存製品を促してる政府が馬鹿だっていうのはやめてやれ 彼らは物を知らないだけなんだ
107 21/06/13(日)13:14:12 No.812765683
ちゃんとやってる風なとこ見せないと煩いし
108 21/06/13(日)13:14:46 No.812765875
女児乳首と男児乳首の判別は可能なのか?
109 21/06/13(日)13:15:18 No.812766060
砂漠と人間の区別すらつかないAIにどうやって児ポか普通のポルノか区別をつけさせると言うのか
110 21/06/13(日)13:15:46 No.812766245
どうせ中抜き繰り返して無料アプリが出来上がる
111 21/06/13(日)13:16:04 No.812766350
>既存製品を促してる政府が馬鹿だっていうのはやめてやれ >彼らは物を知らないだけなんだ 日本語で頼む
112 21/06/13(日)13:16:07 No.812766368
子供やお年寄りが個人情報を言われるまま紙に書いて人に渡しちゃう事件が多発したら 政府は製紙会社に「個人情報を書き込めない紙を作れ」って命令するのかな
113 21/06/13(日)13:16:39 No.812766550
政府と警察に対してはどんだけ思い込みでバカ言ってもいいと思ってる人いるよね
114 21/06/13(日)13:16:49 No.812766606
>どうせ中抜き繰り返して無料アプリが出来上がる 肌色とピンクの組み合わせ全部ダメになるアプリできた!
115 21/06/13(日)13:17:37 No.812766866
政府は教育をプロパガンダと洗脳の為の機関としか考えてないから…
116 21/06/13(日)13:17:45 No.812766915
>政府は製紙会社に「個人情報を書き込めない紙を作れ」って命令するのかな 一方ロシアは鉛筆をつかった
117 21/06/13(日)13:17:54 No.812766969
送信前にこれはポルノじゃありませんか?YES NOみたいに選択させる仕組みを作れば完全に防止できるのに
118 21/06/13(日)13:18:56 No.812767357
ガチガチの管理社会になって政府に身体データ全部把握されて 写真取った瞬間に体の一部から本人特定できるような時代になれば可能かもしれんな 中国に期待しよう
119 21/06/13(日)13:18:57 No.812767360
デジタル庁長官はこれどう思う?
120 21/06/13(日)13:19:32 No.812767573
どこの国の話かとおもたら日本か
121 21/06/13(日)13:19:45 No.812767654
撮ること自体できないようにしようってのがなんか臭いものに蓋というか
122 21/06/13(日)13:20:51 No.812768075
子供の全身にQRコードみたいなの彫り込んでおいたら上手く検知できないかな
123 21/06/13(日)13:21:16 No.812768215
自分から情報ばらまくやつは何しようとやらかすよ そうできてるんだ
124 21/06/13(日)13:22:00 No.812768458
>子供の全身にQRコードみたいなの彫り込んでおいたら上手く検知できないかな 耳なし芳一かよ
125 21/06/13(日)13:22:19 No.812768562
書き込みをした人によって削除されました
126 21/06/13(日)13:23:03 No.812768809
当たり前だけど政府はフィルタリング機能の利用促進や保護者に対する啓発活動もやってて それと平行して技術面からの制御がかけられないかって話でしかないんだけど 政府はバカで愚かで何もしていないって悪意的な思い込みが前提にある人多くない?
127 21/06/13(日)13:23:25 No.812768942
これもしかしてスマホメーカーじゃなくて通信事業者にお願いしようとしてる?
128 21/06/13(日)13:23:37 No.812769023
カメラ機能無くせよ
129 21/06/13(日)13:24:49 No.812769433
>送信前にこれはポルノじゃありませんか?YES NOみたいに選択させる仕組みを作れば完全に防止できるのに 無意味な送信チェック過ぎる…
130 21/06/13(日)13:24:56 No.812769480
前にフェミが申し出してたの真に受けちゃったの?
131 21/06/13(日)13:25:37 No.812769667
>政府はバカで愚かで何もしていないって悪意的な思い込みが前提にある人多くない? 別にいいんじゃない? そういう娯楽なんだから実際のところがどうかはどうでもいいよ
132 21/06/13(日)13:25:51 No.812769747
私達は撮られた
133 21/06/13(日)13:26:09 No.812769837
>政府はバカで愚かで何もしていないって悪意的な思い込みが前提にある人多くない? コロナ禍の無い平行世界からの訪問歓迎致します
134 21/06/13(日)13:26:15 No.812769873
>政府はバカで愚かで何もしていないって悪意的な思い込みが前提にある人多くない? ちゃんとしてるだろう 何も考えてなかった
135 21/06/13(日)13:28:13 No.812770533
撮影した写真が勝手に検閲されるような時代
136 21/06/13(日)13:28:51 No.812770730
>撮ること自体できないようにしようってのがなんか臭いものに蓋というか セックスに目覚めたこどもは一段とばかだからな… 俺もスマホ世代だったら少年法セーフを謳歌しておぺにすうpってただろうし
137 21/06/13(日)13:29:00 No.812770786
児童ポルノを解禁しよう! そうすれば犯罪ではなくなるので被害者もでない!
138 21/06/13(日)13:29:27 No.812770938
悪意を感知してストップかけられる仕組み作ればいいのにね
139 21/06/13(日)13:30:34 No.812771279
政府ってアホなの
140 21/06/13(日)13:30:41 No.812771323
たかが裸の写真で深刻になりすぎでは? 大抵の人は若気の至りでやっちゃったなーくらいの浅い傷で終わる話だろ?
141 21/06/13(日)13:30:43 No.812771335
>児童ポルノを解禁しよう! >そうすれば犯罪ではなくなるので被害者もでない! コンビニでペド雑誌が買える未来を目指す活動家きたな…
142 21/06/13(日)13:31:24 No.812771554
民衆は愚かという前提に立って政府が管理する中国はある意味正しいのかもしれない
143 21/06/13(日)13:31:25 No.812771558
まとめサイトへの転載禁止
144 21/06/13(日)13:31:25 No.812771560
カメラの音を消す抜け道を徹底的に潰す方が現実的そう
145 21/06/13(日)13:31:29 No.812771584
>たかが裸の写真で深刻になりすぎでは? >大抵の人は若気の至りでやっちゃったなーくらいの浅い傷で終わる話だろ? ケツ毛バーガーいいよね…
146 21/06/13(日)13:31:35 No.812771622
肌に金粉や青い塗料を塗って撮る子が増加!
147 21/06/13(日)13:31:47 No.812771689
もし機械学習でやるんだったらポルノ自撮り画像大量に集める必要がありそうだな どうやって
148 21/06/13(日)13:32:21 No.812771858
AIの感知能力なんて知ってて言うわけ無いじゃん!
149 21/06/13(日)13:32:42 No.812771970
アフリカ系女性のポルノや松崎しげるのポルノならカメラのAIがセーフ判定しそう
150 21/06/13(日)13:32:43 No.812771976
>政府ってアホなの 知能的には国民の平均より明らかに上なので政府がアホだと国民がほぼアホってことになるな
151 21/06/13(日)13:33:29 No.812772183
高度に発達した画像認知AIは一時停止と天下一品の区別がつかない
152 21/06/13(日)13:34:09 No.812772402
>知能的には国民の平均より明らかに上なので政府がアホだと国民がほぼアホってことになるな 中国みたいに上位に超エリートが陣取ってる国って珍しいよな だいたいその国の悪いところを反映した人が上位に陣取ってる
153 21/06/13(日)13:34:17 No.812772444
これって親が子供をかまわないから第三者にかまってもらおうとしてるって家庭環境の問題が大半のウェイト占めてない…?
154 21/06/13(日)13:34:24 No.812772480
人類は愚かなのでAIで管理されるくらいが丁度いい
155 21/06/13(日)13:34:55 No.812772641
botチェックの仕組みを使ってポルノの写真をチェックしてくださいって人力に頼るのが良いと思う
156 21/06/13(日)13:35:02 [AI] No.812772696
>人類は愚かなのでAIで管理されるくらいが丁度いい 滅ぼした方がいいな
157 21/06/13(日)13:35:38 No.812772883
>人類は愚かなのでAIで管理されるくらいが丁度いい AIのレス
158 21/06/13(日)13:36:25 No.812773130
どうせロクでもない家庭のロクでもないガキが困るだけでしょ
159 21/06/13(日)13:36:34 No.812773195
>高度に発達した画像認知AIは一時停止と天下一品の区別がつかない 人間も間違えるやつ
160 21/06/13(日)13:36:37 No.812773212
ハゲ確認にカメラ使ってるけど肌色で不適切扱いされたらショックだな…
161 21/06/13(日)13:37:28 No.812773539
>>たかが裸の写真で深刻になりすぎでは? >>大抵の人は若気の至りでやっちゃったなーくらいの浅い傷で終わる話だろ? >ケツ毛バーガーいいよね… ケツ毛バーガーは成人だからこの機能あっても防げないのかわいそ
162 21/06/13(日)13:38:42 No.812773973
>高度に発達した画像認知AIは信号機と運送中の信号ユニットの区別がつかない
163 21/06/13(日)13:38:42 No.812773974
今からでも子供のスマホのカメラ壊せば解決しない?
164 21/06/13(日)13:39:10 No.812774149
子供向けのスマホ作りました!自撮り制限があって安心! って市場に出したとしてそれ売れると思うか? 態々市場競争を阻害する提言を出すなアホが
165 21/06/13(日)13:39:17 No.812774198
メルカリで女の子のスマホ買って画像復元するのが趣味の「」が泣いちゃうぞ
166 21/06/13(日)13:39:25 No.812774240
どう実装する場合でも不適切な画像サンプルがいっぱい必要になると思うけど合法的に集められるのかな
167 21/06/13(日)13:39:38 No.812774308
>>>たかが裸の写真で深刻になりすぎでは? >>>大抵の人は若気の至りでやっちゃったなーくらいの浅い傷で終わる話だろ? >>ケツ毛バーガーいいよね… >ケツ毛バーガーは成人だからこの機能あっても防げないのかわいそ 合法ポルノに切り替わる誕生日前後で自撮り撮影してみたい
168 21/06/13(日)13:40:11 No.812774523
子供のスマホにカメラいらねえから取ってくれって需要は確実にあるよね
169 21/06/13(日)13:41:54 No.812775123
ペアレンタルコントロールの中でこういう機能追加するならいいけど スマホ全機種で制限する気ならもう何も考えなくてもいいよって思う