不適切な画像の検知機能は、お子様のデバイスで性的な画像が撮影もしくは保存された際に、AIによって画像が不適切かどうか判別し通知を行う機能です。性的な自撮りを第三者に送ってしまうような性被害を未然に防ぐための機能となっております。関連記事コドマモとはどんなアプリですか?画像の検知機能をオフにすることはできますか?普通の写真が不適切な写真と判断されました「問題のある画像が検知されました」と通知がきました。不適切な画像の検知後、画像検知数のリセットはできますか?