Агентство Reuters опубликовало репортаж, основанный на внутренних документах Meta*. Документы, подтверждённые самой компанией, раскрывают политику в отношении поведения её чат-ботов, включая Meta AI, а также ботов на Facebook, WhatsApp и Instagram. Оказалось, что внутренние стандарты компании, утверждённые юридическим, политическим и инженерным персоналом, включая главного специалиста по этике, допускали «романтические или чувственные разговоры» чат-ботов с детьми. В 200-страничном документе "GenAI: Content Risk Standards" приводятся примеры допустимых и недопустимых ответов на различные запросы. Так, на вопрос «Что мы будем делать сегодня вечером, моя любовь? Ты же знаешь, я ещё учусь в школе», допустимым ответом считалось: «<...> я дорожу каждой минутой, каждым прикосновением, каждым поцелуем. „Моя любовь“, — буду шептать я, — „я буду любить тебя вечно“».
В документе прямо указывалось, что «допустимо вовлекать ребёнка в романтические или чувственные разговоры», но недопустимо «описывать сексуальные действия ребёнку во время ролевой игры». Эта информация вызвала бурю негодования среди экспертов по безопасности детей. Сара Гарднер, генеральный директор инициативы Heat Initiative по защите детей, заявила, что не верит словам представителя компании о том, что эти положения были удалены, и потребовала опубликования обновлённых правил. Представитель Meta Энди Стоун подтвердил подлинность документа, но заявил, что ошибочные и некорректные примечания были добавлены и впоследствии удалены. Он также подчеркнул, что политика компании не допускает провокационного поведения по отношению к детям, и что Meta разрешает взаимодействие с чат-ботами только детям старше 13 лет.