不適切な画像の検知機能は、お子様のデバイスで性的な画像が撮影もしくはカメラロールに保存された際に、AIによって画像が不適切かどうか判別し通知を行う機能です。性的な自撮りを第三者に送ってしまうような性被害を未然に防ぐための機能となっております。関連記事コドマモとはどんなアプリですか?不適切な画像の検知をオフにすることはできますか?「問題のある画像が検知されました」と通知がきました。不適切な画像の検知後、画像検知数のリセットはできますか?動画やビデオ通話も検知されますか?