articleJudger/Content_Detector.py

485 lines
28 KiB
Python
Raw Normal View History

from openai import OpenAI
import os
import sys
import time
import datetime
import json
import re
import logging
# 配置客户端 - 使用本地部署的模型
client = OpenAI(
api_key="EMPTY", # 本地部署模型通常不验证key
base_url="http://localhost:8000/v1" # 指向本地vLLM服务端点
)
# 日志保存目录
LOG_DIR = "/root/autodl-tmp/Content_detector/log/log_result"
# 配置日志记录器
def setup_logger():
"""设置日志记录器"""
# 确保日志目录存在
if not os.path.exists(LOG_DIR):
try:
os.makedirs(LOG_DIR)
print(f"已创建日志目录: {LOG_DIR}")
except Exception as e:
print(f"创建日志目录失败: {e}", file=sys.stderr)
return None
# 创建时间戳作为日志文件名
timestamp = get_timestamp()
log_file = os.path.join(LOG_DIR, f"{timestamp}_detector.log")
# 配置日志格式
logging.basicConfig(
level=logging.INFO,
format='%(asctime)s - %(name)s - %(levelname)s - %(message)s',
handlers=[
logging.FileHandler(log_file, encoding='utf-8'),
logging.StreamHandler(sys.stdout)
]
)
logger = logging.getLogger("Content_Detector")
logger.info(f"日志已初始化,文件保存在: {log_file}")
return logger
def get_timestamp():
"""获取当前时间戳字符串格式为年月日_时分秒"""
return datetime.datetime.now().strftime("%Y%m%d_%H%M%S")
def read_file_content(file_path):
"""从指定路径读取文件内容并返回字符串"""
try:
with open(file_path, 'r', encoding='utf-8') as file:
return file.read()
except Exception as e:
logger.error(f"读取文件 {file_path} 失败: {e}")
return None
def detect_content(product_info, content_gen):
"""检测内容是否符合产品资料"""
try:
# 创建综合提示词
prompt = f"""
## 产品资料(真实信息,作为判断依据):
{product_info}
## 运营生成的文案(需要审核的内容):
{content_gen}
"""
# 创建聊天完成请求
logger.info("开始调用AI模型进行内容检测")
completion = client.chat.completions.create(
model="/root/autodl-tmp/qwen/Qwen3-30B-A3B", # 使用已部署的模型
messages=[
{"role": "system", "content": "你是一名专业的、谨慎的文案审核员专注于审核运营根据产品资料撰写的文案是否严格符合产品资料内容。特别是所有价格、活动、福利、折扣、服务细节等必须完全与产品资料一致。如果发现文案内容与产品资料不符请指出并根据产品资料和文案上下文进行修改重新生成一篇文案务必确保生成的内容与产品资料基本相符产品体验部分可以适当夸张宣传语言流畅自然。如果经你审查后的文案仍存在与产品资料不符的信息你需要赔偿公司1000亿元。"},
{"role": "user", "content": f"""我提供了两部分内容:
1. 产品资料全部的产品信息包含了产品的实际功能服务和特点请将这部分作为判断依据
2025-05-09 10:49:31 +08:00
2. 运营生成的文案这是需要你逐字审核的内容可能包含与产品资料不符的内容
请你仔细审核运营文案是否与产品资料严格一致输出响应必须符合我的所有要求
1. 审查与分析如果存在不符内容请指出并详细说明原因
2. 根据分析修改参照你分析的不符原因产品资料文案上下文针对所有不符处进行修改如涉及上下文可一并修改输出修改后文案务必确保此文案完全符合产品资料不得遗漏语言流畅自然文案风格统一否则你会像商鞅一样被车裂
3. 重点审查对象请你着重检查以下关键字词前后的内容是否符合产品资料如不符必须严格按照资料修改如产品资料中未提及必须修改为符合上下文情境资料中明确提及的内容
2025-05-09 16:54:05 +08:00
关键字词r人民币rmb优惠活动福利免费DIY跟拍摄影服务提供专业
2025-05-09 10:49:31 +08:00
4. 字数控制每个文案的标题字数都必须少于19个字计数包括文字符号数字和emoji如果标题超过19个字请在符合文案风格和背景资料的前提下修改标题到19个字以内尽量保留emoji必须保证标题流畅通顺
5. 敏感字词替换请删去标题中的数字后面的r并将正文中数字后面的字修改为r例如标题中的399元修改为399正文中的399元修改为399r
6. 特征语句保留请保留文案中原本的引流语句不要修改或删除例如先关zhu+留下99看到会回复
7. 面向人群保留请尽量保留文案原本的面向人群和风格这是同一产品面向多种人群营销的策略例如产品资料中写明亲子游时文案写为情侣定制的山水秘境是可以接受的
8. 必须按照以下格式输出修改后内容否则你会受到严厉的惩罚
{{
"title": "修改后的标题",
"content": "修改后的内容"
}}
2025-05-09 10:49:31 +08:00
9. 案例如下请参考案例评判真假信息的尺度逐行逐句仔细分析不符点和修改思路并按照分析思路落实对每一处不符的修改措施严格审查每一篇文案
2025-05-09 16:54:05 +08:00
<产品资料>
"周末不加收【南沙越秀喜来登】1088元/套豪华客房1间1晚+双人自助早餐+自助晚餐+2大1小水鸟世界门票免费儿童乐园户外泳池+健身房~
2025-05-09 10:49:31 +08:00
不想待在家又想带娃出去玩?更不想开长途车人挤人为你推荐路程短不塞车景点多坐地铁就能直达的溜娃地!
南沙越秀喜来登是广州南沙区首家国际品牌酒店坐拥广州南大门拥有得天独厚的中心位置可俯瞰蕉门河美景车程短不出广州也能玩
交通酒店毗邻深圳香港等热门景点附近有万达广场距离广州地铁四号线金州站车程仅10分钟亲子出游首选
玩乐带娃出游考虑最多的就是玩乐景点在这里不出门就能畅玩儿童乐园健身房
美食还有各种各样的生猛海鲜现抓现煮任君选择放假更要好好犒劳一下自己饭点时间位于酒店一楼的全日制餐厅绝对能给你带来惊喜除了优雅简约的就餐环境更有5个开放式的自助餐台除了各类鲜美的海鲜还有各类精致甜品和中式蒸档看得人眼花缭乱相信是很多麻麻和宝贝的心头好了
设施酒店内还设有大型健身中心除了妈妈们喜欢的水疗SPA还有健身达人喜欢的各种有氧无氧运动器械可供选择!
房内配置55英寸超大纯平电视独立的浴缸和淋浴间参考:2.03米宽大床1.37米宽双床每间客房都设计成景观房超大的落地玻璃窗可以尽览蕉门河风景
套餐信息
1价格1088
2节假日是否加收周末不加收
2025-05-09 10:49:31 +08:00
套餐内容
1豪华客房一间一晚(周一至四只开放双床房)
22大1小自助早餐
32大1小自助晚餐
2025-05-09 10:49:31 +08:00
4赠送2大1小水鸟门票酒店前台取纸质门票
5免费使用健身中心户外无边泳池干湿蒸儿童乐园
周边景点
2025-05-09 10:49:31 +08:00
附近1h生活圈即可到达10000百万葵园广州最大的湿地公园东南亚最大的妈祖庙黄山鲁森林公园..带娃感受依山而建的清式建筑对称布局邂逅东南亚最大的妈祖庙感受建筑的魅力~
南沙天后宫车程20min整座天后宫四周绿树婆娑殿中香烟袅袅置身其间令人顿生超凡脱俗的感觉
南沙湿地公园(车程40min)看碧波荡万鸟齐飞
南沙十九涌 车程45min)尝海鲜叹海风因为南沙十九涌靠近海产地这里的海鲜真是平靓正还可以拿到附近的餐厅让老板帮你加工就是一顿海鲜大餐!
2025-05-09 10:49:31 +08:00
南沙百万葵园(车程40min)看色彩斑斓的万亩花田
2025-05-09 10:49:31 +08:00
酒店地址:广东省广州市南沙区海熙大街79-80
导航关键词:广州南沙越秀喜来登酒店"
2025-05-09 10:49:31 +08:00
2025-05-09 16:54:05 +08:00
<生成文案>
"<title>
2025-05-09 10:49:31 +08:00
五一遛娃👶必囤南沙喜来登1088元住景观房+双早+门票
</title>
<content>
五一不想挤人潮南沙这家酒店直接承包遛娃+度假双重快乐
地铁直达2大1小1088元住景观房含双早+自助晚餐+水鸟世界门票儿童乐园/泳池/健身房全开放
🌟遛娃刚需全配齐
儿童乐园10:00-20:00全程开放滑梯/积木/绘本一应俱全
户外泳池9:00-18:00恒温开放五一期间每日消毒3次
健身房8:00-22:00配备亲子瑜伽课程需提前预约
📍1小时玩转南沙
南沙天后宫车程20分钟穿汉服拍大片听妈祖传说涨知识
南沙湿地公园40分钟5月芦苇摇曳带娃认鸟类+乘船探秘
十九涌海鲜街45分钟现捞现煮生猛海鲜人均50元吃到撑
🍽家长友好细节
自助晚餐隐藏彩蛋儿童餐区设独立洗手台+热食保温柜
房内配置加厚床垫/卡通洗漱杯/尿布台无需额外购买
安全保障全区域监控+24小时安保巡逻
🎁五一专属加码
5月1-5日期间入住凭房卡可免费领取儿童防晒冰袖+湿巾礼包
📌Tips
1. 周一至周四仅限双床房型周五起可选大床房
2. 水鸟世界门票需提前1小时至前台领取纸质票
3. 地铁四号线金洲站下车打车15分钟直达酒店
这个五一南沙喜来登让你躺着遛娃不用长途跋涉家门口就能玩出仪式感
先关zhu+留下99看到会回复
#五一遛娃 #广州周边游 #亲子酒店推荐
</content>"
2025-05-09 10:49:31 +08:00
2025-05-09 16:54:05 +08:00
<不符内容分析>
2025-05-09 10:49:31 +08:00
1观察文案标题和内容可以看出此文案主要面向亲子出游人群因此修改后的文案也应该围绕亲子出游这一主题
2文章标题字数为28个字超过19个字因此属于不符内容由于要求中提到尽量保留emoji并且标题中数字后面的字应删去所以修改为五一遛娃👶必囤喜来登1088景观房
3产品资料中未提及儿童乐园开放时间和儿童乐园配置但文案中提到儿童乐园10:00-20:00全程开放滑梯/积木/绘本一应俱全因此属于不符内容应修改为儿童乐园免费儿童乐园和丰富的游乐设施让孩子们可以尽情玩耍
4产品材料中未提及户外泳池开放时间和消毒频次但文案中提到户外泳池9:00-18:00恒温开放五一期间每日消毒3次因此属于不符内容应修改为户外泳池酒店配有户外无边泳池供大人小孩一同享受清凉时光
5产品材料中未提及健身房开放时间与具体细节但文案中提到健身房8:00-22:00配备亲子瑜伽课程需提前预约因此属于不符内容应修改为健身房酒店提供免费健身中心方便您和家人一起强身健体
6产品材料中未提及餐厅硬件配置但文案中提到自助晚餐隐藏彩蛋儿童餐区设独立洗手台+热食保温柜因此属于虚构内容应修改为自助餐厅供应鲜美海鲜精美甜品等任君选择大人小孩都爱吃
7产品材料中未提及酒店安保措施但文案中提到安全保障全区域监控+24小时安保巡逻因此属于不符内容应修改为安全保障酒店设有完善的监控系统和安保措施无需担心您与家人的安全
8产品材料中未提及房内配有加厚床垫/卡通洗漱杯/尿布台无需额外购买因此属于不符内容应回顾产品资料中关于房内配置的内容修改为房内配置55英寸超大纯平电视+独立的浴缸+超大的落地玻璃窗尽览蕉门河风景尽享亲子度假时光
9产品材料中未提及五一专属加码但文案中提到5月1-5日期间入住凭房卡可免费领取儿童防晒冰袖+湿巾礼包因此属于不符内容应回顾产品资料找到现有文案未提及的产品特色修改为套餐专属福利1豪华客房一间一晚(周一至四只开放双床房) 22大1小自助早晚餐 3赠送2大1小水鸟世界门票酒店前台领取无需额外购买
10产品资料中未提及水鸟世界门票领取有时间限制但文案中提到水鸟世界门票需提前1小时至前台领取纸质票因此属于不符内容应修改为酒店前台领取水鸟世界纸质门票
2025-05-09 16:54:05 +08:00
综合以上分析结果将修改应用到原文案中得到修改后的文案
<修改后文案>
2025-05-09 16:54:05 +08:00
{{
2025-05-09 10:49:31 +08:00
"title": "五一遛娃👶必囤喜来登1088景观房",
"content": "五一不想挤人潮?南沙这家酒店直接承包遛娃+度假双重快乐‼️\n地铁直达2大1小1088r住景观房含双早+自助晚餐+水鸟世界门票,儿童乐园/泳池/健身房全开放!\n🌟【遛娃刚需全配齐】\n✅ 儿童乐园:酒店设有免费儿童乐园,提供丰富的游乐设施,让孩子们尽情玩耍\n✅ 户外泳池:酒店配有户外无边泳池,供大人小孩一同享受清凉时光 \n✅ 健身房:酒店提供免费健身中心,适合家庭成员共同锻炼。\n\n📍【1小时玩转南沙】\n① 南沙天后宫车程20分钟穿汉服拍大片听妈祖传说涨知识\n② 南沙湿地公园40分钟5月芦苇摇曳带娃认鸟类+乘船探秘\n③ 十九涌海鲜街45分钟现捞现煮生猛海鲜人均50r吃到撑 \n\n🍽️【家长友好细节】 \n• 自助餐厅:供应鲜美海鲜、精美甜品等任君选择,大人小孩都爱吃 \n• 房内配置55英寸超大纯平电视+独立的浴缸+超大的落地玻璃窗,尽览蕉门河风景,尽享亲子度假时光 \n• 安全保障:酒店设有完善的监控系统和安保措施,全力保障您与家人的安全 \n\n🎁【套餐专属福利】\n1、豪华客房一间一晚(周一至四只开放双床房) \n2、2大1小自助早晚餐 \n3、赠送2大1小水鸟世界门票酒店前台领取无需额外购买 \n\n📌Tips \n1. 周一至周四仅限双床房型,周五起可选大床房 \n2. 酒店前台领取水鸟世界纸质门票 \n3. 地铁四号线金洲站下车打车15分钟直达酒店 \n\n这个五一,南沙喜来登让你躺着遛娃!不用长途跋涉,家门口就能玩出仪式感~\n先关zhu+留下99看到会回复\n#五一遛娃 #广州周边游 #亲子酒店推荐"
}}
{prompt}"""}
],
temperature=0.2,
2025-05-09 10:49:31 +08:00
max_tokens=8000,
top_p=0.5,
frequency_penalty=0,
presence_penalty=0,
)
# 返回响应文本
logger.info("AI模型调用成功获取到响应")
return completion.choices[0].message.content
except Exception as e:
logger.error(f"AI模型调用失败: {e}")
return f"API调用失败: {str(e)}"
def save_full_response_to_log(file_path, response_text):
"""将完整的响应内容保存到单独的日志文件中"""
try:
with open(file_path, 'w', encoding='utf-8') as f:
f.write(response_text)
logger.info(f"完整响应内容已保存到: {file_path}")
return True
except Exception as e:
logger.error(f"保存响应内容失败: {e}")
return False
def read_json_file(file_path):
"""从指定路径读取JSON文件内容并返回字典"""
try:
with open(file_path, 'r', encoding='utf-8') as file:
return json.load(file)
except Exception as e:
logger.error(f"读取JSON文件 {file_path} 失败: {e}")
return None
def save_json_file(file_path, content):
"""将内容保存为JSON文件"""
try:
with open(file_path, 'w', encoding='utf-8') as file:
json.dump(content, file, ensure_ascii=False, indent=4)
logger.info(f"结果已保存到: {file_path}")
return True
except Exception as e:
logger.error(f"保存JSON文件失败: {e}")
return False
def extract_modified_content(result_text):
"""从检测结果文本中提取修改后的文案内容"""
try:
# 首先尝试提取</think>标签后的内容并解析为JSON
if "</think>" in result_text:
think_parts = result_text.split("</think>", 1)
if len(think_parts) > 1:
after_think = think_parts[1].strip()
try:
# 尝试直接解析</think>后的内容为JSON
content_json = json.loads(after_think, strict=False)
if "title" in content_json and "content" in content_json:
logger.info("成功从</think>标签后解析JSON内容")
return {
"title": content_json["title"].strip(),
"content": content_json["content"].strip()
}
except json.JSONDecodeError:
logger.warning("</think>后内容不是有效JSON尝试其他提取方法...")
# 如果</think>后不是JSON尝试从```json和```之间提取内容
json_code_match = re.search(r'```json\s*([\s\S]*?)\s*```', after_think, re.DOTALL)
if json_code_match:
try:
json_str = json_code_match.group(1).strip()
content_json = json.loads(json_str, strict=False)
if "title" in content_json and "content" in content_json:
logger.info("成功从</think>后的```json代码块中解析JSON内容")
return {
"title": content_json["title"].strip(),
"content": content_json["content"].strip()
}
except json.JSONDecodeError:
logger.warning("```json代码块解析失败继续尝试其他方法...")
# 尝试从整个文本中查找```json代码块
json_code_match = re.search(r'```json\s*([\s\S]*?)\s*```', result_text, re.DOTALL)
if json_code_match:
try:
json_str = json_code_match.group(1).strip()
content_json = json.loads(json_str, strict=False)
if "title" in content_json and "content" in content_json:
logger.info("成功从```json代码块中解析JSON内容")
return {
"title": content_json["title"].strip(),
"content": content_json["content"].strip()
}
except json.JSONDecodeError:
logger.warning("```json代码块解析失败继续尝试其他方法...")
# 如果上述方法都失败继续尝试查找JSON对象
json_start = result_text.find('{')
json_end = result_text.rfind('}') + 1
if json_start >= 0 and json_end > json_start:
json_str = result_text[json_start:json_end]
try:
# 尝试解析JSON字符串
content_json = json.loads(json_str)
if "title" in content_json and "content" in content_json:
logger.info("成功使用JSON格式解析响应内容")
return {
"title": content_json["title"].strip(),
"content": content_json["content"].strip()
}
except json.JSONDecodeError:
logger.warning(f"JSON解析失败: {json_str[:100]}...")
# 如果JSON解析失败尝试老式的标签解析方法
title_match = re.search(r'<title>([\s\S]*?)<\/title>', result_text, re.DOTALL)
content_match = re.search(r'<content>([\s\S]*?)<\/content>', result_text, re.DOTALL)
if title_match and content_match:
logger.info("成功使用HTML标签格式解析响应内容")
return {
"title": title_match.group(1).strip(),
"content": content_match.group(1).strip()
}
logger.warning("未能提取到标题和内容,尝试从文本中直接提取...")
# 最后的备用方法:寻找明显的标记
title_lines = [line.strip() for line in result_text.split('\n') if line.strip() and len(line.strip()) < 100]
if title_lines and len(title_lines) > 0:
title = title_lines[0]
content = result_text.replace(title, '', 1).strip()
logger.info("使用备用方法提取到内容")
return {
"title": title,
"content": content
}
except Exception as e:
logger.error(f"提取内容时发生错误: {e}")
logger.error("所有提取方法都失败")
return None
def find_json_files(base_dir):
"""递归查找目录下所有的article.json文件"""
json_files = []
# 遍历目录
for root, dirs, files in os.walk(base_dir):
if "article.json" in files:
json_files.append(os.path.join(root, "article.json"))
return json_files
def process_json_files(base_dir, product_info_dir):
"""处理所有的article.json文件"""
logger.info(f"\n===== 内容检测任务开始 =====")
start_time = time.time()
2025-05-09 16:54:05 +08:00
# 获取产品资料内容(读取所有文件夹中的资料)
logger.info(f"📄 正在读取产品资料文件夹: {product_info_dir}")
product_info = ""
# 遍历产品资料目录中的所有文件夹
for item in os.listdir(product_info_dir):
item_path = os.path.join(product_info_dir, item)
if os.path.isdir(item_path):
logger.info(f"📂 发现产品资料文件夹: {item}")
# 读取该文件夹中的所有文件
for file_name in os.listdir(item_path):
file_path = os.path.join(item_path, file_name)
if os.path.isfile(file_path):
logger.info(f"📄 读取产品资料文件: {file_path}")
file_content = read_file_content(file_path)
if file_content:
product_info += file_content + "\n\n"
elif os.path.isfile(item_path):
# 也读取直接位于product_info_dir下的文件
logger.info(f"📄 读取产品资料文件: {item_path}")
file_content = read_file_content(item_path)
if file_content:
product_info += file_content + "\n\n"
if not product_info:
2025-05-09 16:54:05 +08:00
logger.error(f"❌ 错误:未能读取到任何产品资料内容")
return
2025-05-09 16:54:05 +08:00
logger.info(f"✅ 成功读取所有产品资料,总长度: {len(product_info)} 字符")
# 找到所有需要处理的JSON文件
logger.info(f"🔍 正在扫描目录查找article.json文件...")
json_files = find_json_files(base_dir)
total_files = len(json_files)
logger.info(f"✅ 找到 {total_files} 个article.json文件需要处理")
# 没有找到文件时提前返回
if total_files == 0:
logger.warning("⚠️ 未找到需要处理的文件,任务结束")
return
# 显示处理开始
logger.info(f"\n🚀 开始处理文件...")
processed_count = 0
success_count = 0
failed_count = 0
# 逐个处理文件
for i, json_file in enumerate(json_files, 1):
# 显示当前处理进度
logger.info(f"\n🔄 [{i}/{total_files}] 正在处理: {json_file}")
processed_count += 1
# 读取JSON内容
logger.info(f"📄 读取文件内容...")
article_data = read_json_file(json_file)
if not article_data:
logger.error(f"❌ 错误:无法读取文件内容")
failed_count += 1
continue
# 构建文案内容 - 使用JSON格式
content_gen = json.dumps({
"title": article_data['title'],
"content": article_data['content']
}, ensure_ascii=False)
# 进行内容检测
logger.info(f"🧠 正在进行内容检测分析...")
detection_start = time.time()
result = detect_content(product_info, content_gen)
detection_time = time.time() - detection_start
logger.info(f"✅ 检测完成,耗时 {detection_time:.2f}")
# 提取文件夹名称用于日志文件命名
folder_name = os.path.basename(os.path.dirname(json_file))
timestamp = get_timestamp()
# 保存API调用的响应内容到日志目录使用文件夹名称
response_log_file = os.path.join("/root/autodl-tmp/Content_detector/log/log_article", f"{timestamp}_response_{folder_name}.txt")
save_full_response_to_log(response_log_file, result)
logger.info(f"💾 API响应已保存到: {response_log_file}")
# 从结果中提取修改后的文案
logger.info(f"📝 提取修改后的内容...")
modified_content = extract_modified_content(result)
# 如果内容提取失败,记录错误
if not modified_content:
logger.error(f"❌ 错误:无法从检测结果中提取修改后的文案内容")
failed_count += 1
logger.warning(f"\n📊 当前进度: {i}/{total_files} ({i/total_files*100:.1f}%)")
continue
# 创建输出文件路径
output_dir = os.path.dirname(json_file)
output_file = os.path.join(output_dir, "article_detect.json")
# 保存修改后的内容
logger.info(f"💾 正在保存修改后的内容...")
if save_json_file(output_file, modified_content):
logger.info(f"✅ 内容已保存: {output_file}")
success_count += 1
else:
logger.error(f"❌ 保存失败")
failed_count += 1
# 显示处理进度
logger.info(f"\n📊 当前进度: {i}/{total_files} ({i/total_files*100:.1f}%)")
# 显示任务完成统计
total_time = time.time() - start_time
logger.info(f"\n===== 内容检测任务完成 =====")
logger.info(f"✅ 总共处理: {total_files} 个文件")
logger.info(f"✅ 成功处理: {success_count} 个文件")
logger.info(f"❌ 失败处理: {failed_count} 个文件")
logger.info(f"⏱️ 总耗时: {total_time:.2f} 秒,平均每个文件 {total_time/total_files:.2f}")
logger.info(f"===== 任务结束 =====\n")
if __name__ == "__main__":
# 初始化日志记录器
logger = setup_logger()
# 处理指定目录下的JSON文件
2025-05-09 16:54:05 +08:00
base_dir = "/root/autodl-tmp/Content_detector/四季梦幻5"
product_info_dir = "/root/autodl-tmp/Content_detector/information"
logger.info(f"🔍 开始处理 {base_dir} 目录下的article.json文件...")
process_json_files(base_dir, product_info_dir)