Соцсеть Facebook запустила новый инструмент на базе искусственного интеллекта, призванный проактивно помечать и удалять фотографии и видео с интимным содержанием, размещённые без согласия запечатлённых на них людей. Эта система будет активной как в Facebook, так и в Instagram. В отличие от нынешних фильтров, она сможет обнаруживать изображения «почти ню». Такой контент будет помечаться и отправляться на рассмотрение людям-модераторам, передает ITC.
В настоящее время пользователи Facebook и Instagram должны сами сообщать о подобных случаях размещения интимных фотографий или видео без их согласия. В Facebook надеются, что новая система будет лучше выявлять жертв публикаций, помечая изображения и видео вместо них. Ведь далеко не всегда человек может знать, что кто-то разместил в сети его интимные фото и видео. Теперь же система сможет отправлять подозрительный контент на рассмотрение модераторам ещё до того, как кто-то обозначит его, как неприемлемый.
Отмечается, что система не только анализирует сам контент, но также учитывает заголовки. Если заголовок содержит «уничижительный или постыдный текст», это, вероятно, означает, что «кто-то загрузил фотографию, чтобы оскорбить или отомстить кому-то другому». Хотя вряд ли этого будет достаточно, чтобы охватить все случаи, когда порно-мести. Facebook также сообщила, что намерена расширить действие программы уведомлений о порно-мести на дополнительные страны.
Напомним, сбой в работе Facebook и Instagram на этой неделе стал самым масштабным в истории соцсетей