内页banner>

联系方式

当前位置: 首页 > 新闻中心

新闻中心 News

联系我们Contact Us

飞鱼加速器(中国)官方网站|飞鱼加速器

电话:13594780107

联系人:周经理

邮箱:addictive@hotmail.com

网址:https://www.ghcyd.com

地址:泉州市刊舌入口209号

使用 Amazon Rekognition 批量分析和自定义审核提升内容审核 机器学习博客

2026-01-27 12:44:50
19次

使用Amazon Rekognition提升内容审核质量

关键要点

新版本:Amazon Rekognition内容审核版本70增加了26个新审核标签,并扩展了审核标签的分类体系。批量分析:通过Amazon Rekognition批量分析功能,可以异步分析大规模图像集,从而提升内容审核的效率。自定义审核:利用自定义审核功能,可以训练特定的审核适配器,进一步提高内容审核的准确性。

在内容审核和用户生成内容UGC迅速增长的现今,保护品牌声誉与创建安全的用户社区变得尤为重要。Amazon Rekognition使得将图像和视频分析集成到应用程序中变得简单有效,其深度学习技术每天分析数十亿张图片和视频,无需具备机器学习专业知识。许多行业客户正在利用Amazon Rekognition进行内容审核,以识别不当、令人反感和不受欢迎的内容。

接下来,我们将讨论以下内容:

内容审核模型版本70及其功能Amazon Rekognition批量分析的工作原理如何通过批量分析和自定义审核提升内容审核预测的准确性

内容审核模型版本70及其功能

Amazon Rekognition内容审核版本70新增了26个审核标签,并将审核标签分类扩展为三级体系。这些更新使得客户能够更精准地检测他们希望审核的内容。此外,版本70引入了新的功能,以识别动画和插图内容,从而允许客户在审核工作流中创建更加细化的规则,以包括或排除该类内容。

以下面的图片为例,展示了一些审核标签的检测结果。

审核标签分类级别置信度分数暴力L1926画面暴力L2926爆炸与冲击波L3926内容类型置信度分数插图939

要获取内容审核版本70的完整分类详情,请访问我们的开发者指南。

批量分析用于内容审核

除了实时审核,Amazon Rekognition内容审核还支持通过Amazon Rekognition批量分析进行批量图像审核。这使得用户可以异步分析大量图像,以识别不当内容并获得有关分配给图像的审核类别的见解,同时省去了构建批量图像审核解决方案的需求。

用户可以通过Amazon Rekognition控制台或直接调用API使用AWS CLI和AWS SDK访问批量分析功能。在控制台上,您可以上传要分析的图像,并通过简单的点击获取结果。批量分析工作完成后,您可以识别和查看审核标签预测结果,例如:明确的性内容、亲吻、暴力、毒品和烟草等,并为每个标签类别提供置信度分数。

在Amazon Rekognition控制台创建批量分析任务

请按照以下步骤尝试Amazon Rekognition批量分析:

在Amazon Rekognition控制台中,选择导航面板中的批量分析。选择开始批量分析。输入任务名称并指定要分析的图像,可以通过输入S3桶位置或上传计算机中的图像来进行。可选择一个适配器,以使用您通过自定义审核训练的适配器分析图像。选择开始分析以运行该任务。

当过程完成后,您可以在Amazon Rekognition控制台上查看结果。此外,分析结果的JSON副本将存储在Amazon S3输出位置。

Amazon Rekognition批量分析API请求

以下是使用编程接口创建图像审核的批量分析任务的步骤。如果您的图像文件尚未在S3桶中,请先上传它们以确保可以被Amazon Rekognition访问。与在Amazon Rekognition控制台创建批量分析任务类似,在调用StartMediaAnalysisJob API时,需要提供以下参数:

OperationsConfig 媒体分析任务的配置选项:MinConfidence 返回审核标签的最低置信度级别,有效范围为0到100。低于这一指定值的标签将不会被返回。Input 包括以下内容:S3Object 输入清单文件的S3对象信息,包括桶名和文件名。输入文件包含每个存储在S3桶中的图像的JSON行。例如:{sourceref s3//MYINPUTBUCKET/1jpg}。OutputConfig 包括:S3Bucket 输出文件的S3桶名称。S3KeyPrefix 输出文件的键前缀。

示例代码如下:

pythonimport boto3import osimport datetimeimport timeimport jsonimport uuid

region = boto3sessionSession()regionnames3 = boto3client(s3)rekognitionclient = boto3client(rekognition regionname=region)

minconfidence = 50inputbucket = MYINPUTBUCKETinputfile = inputfilejsonloutputbucket = MYOUTPUTBUCKETkeyprefix = moderationresultsjobname = bulkanalysisdemo

飞鱼加速npv官网

jobstartresponse = rekognitionclientstartmediaanalysisjob( OperationsConfig={DetectModerationLabels {MinConfidence minconfidence}} JobName=jobname Input={S3Object {Bucket inputbucket Name inputfile}} OutputConfig={S3Bucket outputbucket S3KeyPrefix keyprefix})

jobid = jobstartresponse[JobId]maxtries = 60while maxtries gt 0 maxtries = 1 job = rekognitionclientgetmediaanalysisjob(JobId=jobid) jobstatus = job[Status] if jobstatus in [SUCCEEDED FAILED] print(fJob {jobname} is {jobstatus}) if jobstatus == SUCCEEDED print( fBulk Analysis output file copied ton ftBucket {job[Results][S3Object][Bucket]}n ftObject {job[Results][S3Object][Name]} ) break else print(fWaiting for {jobname} Current status is {jobstatus}) timesleep(10)

您还可以通过以下AWS CLI命令调用相同的媒体分析:

bashaws rekognition startmediaanalysisjob operationsconfig DetectModerationLabels={MinConfidence=50} input S3Object={Bucket=inputbucketName=inputfilejsonl} outputconfig S3Bucket=outputbucketS3KeyPrefix=moderationresults

Amazon Rekognition批量分析API结果

要获取批量分析任务的列表,您可以使用ListMediaAnalysisJobs。响应将包括分析任务输入和输出文件的所有详细信息及任务状态:

python

获取最近的10个媒体分析任务

moderationjoblist = rekognitionclientlistmediaanalysisjobs(MaxResults=10 NextToken=)for jobresult in moderationjoblist[MediaAnalysisJobs] print(fJobId {jobresult[JobId]} Status {jobresult[Status]}n Summary {jobresult[ManifestSummary][S3Object][Name]} n Result {jobresult[Results][S3Object][Name]}n)

也可以通过AWS CLI执行listmediaanalysisjobs命令:

bashaws rekognition listmediaanalysisjobs maxresults 10

Amazon Rekognition批量分析会在输出桶中生成两个输出文件。第一个文件是manifestsummaryjson,包含批量分析任务的统计信息和错误列表:

json{ version 10 statistics { totaljsonlines 2 validjsonlines 2 invalidjsonlines 0 } errors []}

第二个文件是resultsjson,其中每个分析过的图像占据一行,格式如下。每个结果包含检测标签的顶级类别(L1)及标签的二级类别(L2),置信度分数在1到100之间。一些分类级别2标签可能具有分类级别3标签(L3),允许对内容进行层级分类。

使用 Amazon Rekognition 批量分析和自定义审核提升内容审核 机器学习博客

json{ sourceref s3//MYINPUTBUCKET/1jpg detectmoderationlabels { ModerationLabels [ { ParentName 产品 TaxonomyLevel 3 Confidence 919385 Name 药品 } { ParentName 毒品与烟草 TaxonomyLevel 2 Confidence 919385 Name 产品 } { ParentName TaxonomyLevel 1 Confidence 919385 Name 毒品与烟草 } ] ModerationModelVersion 70 ContentTypes [] }}

通过批量分析和自定义审核提升内容审核预测的准确性

通过自定义审核功能,您可以增强内容审核基础模型的准确性。自定义审核使您能够通过上传图像并为这些图像注释来训练特定的自定义审核适配器。适配器是模块化组件,可以扩展和增强Amazon Rekognition深度学习模型的能力。您可以通过核实批量分析任务的预测结果来轻松注释图像。

请按照以下步骤验证预测结果:

在Amazon Rekognition控制台中,选择导航面板中的批量分析。选择批量分析任务,然后选择验证预测。

在验证预测页面,您可以看到这项任务中评估的所有图像及其预测标签。

选择每个图像的标签,以标记为符合打勾以确认真实阳性;或标记为不符合打叉以撤销每个分配的标签即,该标签预测为假阳性。如果图像未分配适当标签即假阴性,您也可以选择并分配正确的标签。

根据您的验证,假阳性和假阴性将更新在验证统计中。您可以利用这些验证来训练自定义审核适配器,从而提升内容审核预测的准确性。

作为前提条件,训练自定义审核适配器需要您验证至少20个假阳性或50个假阴性,以改善您希望提升的每个审核标签的预测准确性。验证20个假阳性或50个假阴性后,您可以选择训练适配器。

您可以在之后通过选择自定义适配器来分析您的图像,方法是在创建新的批量分析任务时选择自定义适配器,或者通过API传递自定义适配器的唯一适配器ID。

总结

在本文中,我们概述了内容审核版本70、批量分析的应用,以及如何通过批量分析和自定义审核来提升内容审核预测的准确性。若要尝试新的审核标签和批量分析,请登录您的AWS账户并查看Amazon Rekognition控制台的图像审核和批量分析。

关于作者

Mehdy Haghy是AWS WWCS团队的高级解决方案架构师,专注于AWS上的人工智能和机器学习。他与企业客户合作,帮助他们迁移、现代化和优化在AWS云上的工作负载。业余时间,他喜欢做波斯菜和电子产品相关的DIY。

Shipra Kanoria是AWS的首席产品经理。她热衷于帮助客户利用机器学习和人工智能解决最复杂的问题。在加入AWS之前,Shipra在亚马逊Alexa工作了4年,推出了许多与生产力相关的功能。

Maria Handoko是AWS的高级产品经理。她专注于利用机器学习和计算机视觉帮助客户解决商业挑战。她在业余时间喜欢远足、听播客以及探索不同的美食。

飞鱼加速器(中国)官方网站|飞鱼加速器

电话:13594780107

联系人:周经理

邮箱:addictive@hotmail.com

网址:https://www.ghcyd.com

地址:泉州市刊舌入口209号

在线留言

  • 体验移动端

    体验移动端

  • 联系客服

    联系客服