不適切な画像の検知
不適切な画像の検知に関するFAQです。
不適切な画像の検知機能について
AIによる検知はどのくらい正確ですか?
「問題のある画像が検知されました」と通知がきました。
検知された画像はコドマモ(保護者のアプリ)上で確認できますか?
画像の検知機能をオフにすることはできますか?
ステータスが変わるのはなぜですか?
子どもが画像を削除したらどうなりますか?
これまでの猥褻画像の撮影防止アプリとの違いは何ですか?
普通の写真が不適切な写真と判断されました
画像のスキャンはどのタイミングで行われますか?
検知された画像は開発者へも見えていますか?
危険度が高い画像が検知された際、保護者はどうしたらよいでしょうか?
画像のスキャンが実施されたかはどこで確認できますか?
不適切な画像の検知後、画像検知数のリセットはできますか?
動画やビデオ通話も検知されますか?