还剩48页未读,继续阅读
本资源只提供10页预览,全部文档请下载后查看!喜欢就下载吧,查找使用更方便
文本内容:
网络信息搜集与处理课程导引欢迎各位同学参加《网络信息搜集与处理》课程在当今信息爆炸的时代,掌握高效的信息搜集和处理能力已成为必不可少的核心竞争力本课程旨在帮助大家系统掌握网络信息搜集的方法与技巧,提升信息处理能力,培养信息安全意识,并能够在实际工作和学习中灵活运用这些技能解决问题我们将从信息的基本概念入手,探讨信息搜集的流程、工具与技术,学习信息处理与分析的方法,同时关注信息安全与伦理法律问题,最后通过实际案例巩固所学知识信息化时代的挑战与机遇175ZB90%全球数据量新增数据比例2024年全球数据总量预计达到175ZB,同比近两年产生的数据占人类历史数据总量的增长20%90%小时8平均信息接触时间中国网民每日平均接触信息时长信息爆炸时代,我们每天面临海量数据的冲击信息过载(Information Overload)指个体或组织接收到的信息量超过其处理能力的现象,导致决策质量下降、注意力分散和工作效率降低然而,信息爆炸也带来前所未有的机遇掌握正确的信息搜集与处理技能,可以更好地发现价值信息,提升个人竞争力和组织决策效率,把握时代发展脉搏网络信息的基本概念信息的定义网络信息分类信息是经过处理、具有特定含义的数据,能够减少不确定性,为结构化信息具有明确定义和标准格式的信息,如数据库中•接收者带来价值和影响的内容信息具有时效性、依附性、共享的表格数据性和价值性等特征半结构化信息具有一定组织格式但不符合关系型数据库模•型的信息,如文件XML从广义上讲,信息既包括可以数字化的内容,也包括难以数字化非结构化信息不具有预定义数据模型的信息,如文本文的经验和技能等内容从狭义上讲,信息特指通过电子方式传递•档、图片、视频等的数字化内容信息搜集的意义战略发展辅助长期规划与战略布局决策支持提供依据,降低决策风险风险防控监测舆情,预警潜在危机信息搜集是现代决策支持系统的基础高质量的信息能够为个人和组织提供全面、准确的决策依据,减少盲目性,提高效率例如,企业市场调研依赖于大量竞品和用户数据的搜集分析,为产品定位和营销策略提供支持在信息安全与舆情监测领域,及时有效的信息搜集可以帮助组织预警潜在风险,把握社会舆论动向,及时应对突发事件和危机此外,信息搜集还能支持学术研究、知识管理和个人学习成长网络信息搜集流程总览需求定义资源定位明确搜集目的、范围和指标识别并选择信息源信息处理信息获取整理、分析和应用获取的信息使用适当工具和方法采集信息高效的网络信息搜集需要遵循科学的流程首先,需求定义阶段需要明确我们要什么,包括搜集目的、范围和关键指标,形成清晰的信息需求描述资源定位阶段则需确定去哪找,识别并选择最优的信息源信息获取阶段关注怎么拿,选择合适的工具和方法进行实际采集最后,信息处理与应用阶段则解决如何用的问题,通过整理、分析、可视化等方式充分利用获取的信息解决实际问题,并提炼决策建议信息搜集的伦理与法律边界个人信息保护法要点合法合规操作原则•个人信息处理应当遵循合法、正当、必•尊重信息主体权利,避免侵犯隐私要和诚信原则•严守合法渠道,拒绝黑灰产信息•明确告知、获得同意是处理个人信息的•确保信息安全,防止数据泄露基本前提•敏感个人信息需要采取严格保护措施信息伦理责任•避免过度收集和不当使用•保持信息真实性、客观性•防止搜集到的信息被滥用在开展信息搜集活动时,必须严格遵守相关法律法规《个人信息保护法》对个人信息的收集、存储、使用、加工、传输、提供、公开等处理活动作出了明确规定,要求采取必要措施确保个人信息安全从伦理角度看,信息搜集应当避免侵犯个人隐私、尊重知识产权、防止信息滥用在实际操作中,应当建立合规意识,坚持合法渠道、正当目的、适度收集、安全保障的基本原则,确保信息搜集活动既合法合规,又符合伦理道德信息搜集的主要类型明面信息()深网暗网信息OSINT/开源情报()是指通过公开渠道可深网()指常规搜索引擎无法索引的内容,如需登录Open SourceIntelligence DeepWeb获取的信息资源这类信息通常包括新闻报道、社交媒体、政府访问的数据库、专业平台等暗网()则需要特殊软Dark Web公开数据、学术文献等件(如)才能访问,具有匿名性和隐蔽性Tor的优势在于获取合法、成本低,但面临信息可靠性参差深网暗网信息搜集具有较高技术门槛和法律风险,需特别注意OSINT/不齐、需要大量筛选验证的挑战目前,已广泛应用于合规性在特定场景下(如安全研究),这类信息可能具有独特OSINT商业情报、安全分析等领域价值,但普通用户应谨慎接触网络信息来源分类官方公开渠道包括政府网站、公共数据平台、企业公告等,特点是权威性高、可靠度强,但更新周期可能较长,有时信息展示不够直观如中国国家统计局、地方政府数据开放平台等社交媒体涵盖微博、知乎、微信公众号、抖音等平台,特点是信息更新快、互动性强、反映民众观点,但信息真实性需验证,易受情绪化影响适合了解热点话题和公众反应新闻媒体包括传统媒体的网络版和纯网络媒体,如人民网、新华网、澎湃新闻等特点是报道相对专业、有一定深度,但可能存在立场差异,需要多渠道对比专业数据库如学术数据库(CNKI、Web ofScience)、行业数据库(Wind、Choice)等特点是数据精准、专业性强、资源丰富,但多数需要付费访问,使用门槛较高搜索引擎原理简介网络爬虫自动浏览互联网并下载网页内容索引系统处理和分类网页内容,建立关键词索引排序算法根据相关性和质量为搜索结果排序用户界面展示搜索结果,提供交互功能搜索引擎是网络信息搜集的重要工具,其基本工作原理包括网页抓取、索引建立和结果排序三个核心环节网络爬虫自动浏览互联网并下载网页内容;索引系统对内容进行分析处理,建立关键词与网页的映射关系;排序算法则基于相关性和网页质量对搜索结果进行排序在技术特点上,百度擅长中文语境分析,本地化程度高;谷歌的PageRank算法注重网页权威性,全球覆盖范围广;必应则整合了AI技术,提供更智能的搜索体验不同搜索引擎各有优势,在信息搜集时可根据需求选择合适的搜索引擎有效检索关键词策略运算符功能示例AND/空格同时包含多个关键词网络安全技术OR/|包含任一关键词疫情|新冠NOT/-排除特定关键词电池-锂离子精确匹配人工智能伦理site:限定特定网站site:edu.cn论文filetype:限定文件类型报告filetype:pdf有效的关键词策略是精准检索的核心布尔运算符(AND/OR/NOT)可以帮助我们组合或排除关键词,精确定位所需信息例如,搜索大数据AND隐私保护NOT云计算可以获取关于大数据隐私保护但不涉及云计算的内容除了布尔运算符,还可以使用高级检索技巧提升搜索效率如使用引号进行精确匹配;利用site:限定特定网站;使用filetype:限制文件类型;通过intitle:限定标题中包含的关键词;使用date:限定时间范围等掌握这些技巧能够大幅提高信息搜集的精确度和效率网页信息采集工具浏览器插件HTTrack OctoparseWebHarvy免费网站镜像工具,可可视化网页数据采集工功能强大的数据提取工如、Web Scraper以将整个网站下载到本具,支持无代码操作,具,可以处理复杂的网等浏览器扩Data Miner地进行离线浏览适合通过点击选择要采集的页结构和动态内容适展,安装简便,适合小对整站内容进行备份或内容适合非技术人员合需要定期批量采集数规模、临时性的数据采分析,但不适合选择性使用,对复杂动态网页据的用户,具有较好的集需求,无需安装独立采集特定数据的支持较好,有免费和自动化能力,但学习曲软件,但功能相对有付费版本线较陡限数据获取方法API申请API密钥在平台注册开发者账号并获取访问凭证构建API请求根据文档拼接请求和参数URL发送请求与处理响应使用工具发送请求并解析返回数据HTTP(应用程序编程接口)是一种规范化的数据交换机制,允许不同软件系统之间有序通信是当前最流行的一种设计风格,API RESTfulAPI API它基于协议,使用、、、等方法对资源进行操作,返回的数据格式通常为或HTTP GETPOST PUTDELETE JSONXML以新浪微博开放平台为例,开发者可以通过其获取公开微博内容、用户信息、热搜榜等数据使用时首先需要注册开发者账号,获取API和,然后根据文档构建请求,最后处理返回的数据常用的调用工具包括、,以及各AppKey AppSecretAPI HTTPJSON APIPostman cURL种编程语言的客户端库HTTP社交媒体数据搜集社交媒体平台已成为重要的舆情监测和热点追踪渠道有效的社交媒体数据搜集通常包括关键词监测、热点话题追踪、意见领袖分析和情感倾向识别等环节在技术实现上,可以通过平台官方、第三方监测工具或自建爬虫系统进行API对于微博数据,可利用微博开放平台获取公开微博内容;知乎数据可通过知乎官方开放的接口或专业爬虫工具采集;微信公众号内API容则可通过搜狗微信搜索或第三方平台如清博、新榜等进行检索在数据采集过程中,应注意遵守平台的使用条款和频率限制,避免过度采集导致被封禁IP订阅及信息聚合RSS基本原理主流阅读工具对比RSS RSS()是一种基于的内容分RSS ReallySimple SyndicationXML特性Feedly Inoreader发格式,允许用户订阅网站更新当网站内容更新时,阅读RSS器会自动获取最新内容,实现信息的自动推送和聚合免费版容量个源个源100150的主要特点是标准化、轻量级和自动化,它使用户能够在一RSS高级搜索付费版支持支持个界面中浏览多个信息源的更新,大大提高信息获取效率中文支持一般良好移动应用优秀良好文献与学术信息搜集选择合适的检索平台根据研究领域选择相应的数据库CNKI适合中文文献,Web ofScience侧重国际高质量期刊构建检索式使用主题词+自由词组合,应用布尔运算符精确定位相关文献筛选与评估通过被引次数、期刊影响因子、出版时间等指标筛选高质量文献管理与组织使用文献管理工具如EndNote整理参考文献,建立个人知识库学术文献是科研和学习的重要信息来源国内常用的CNKI(中国知网)覆盖期刊、学位论文、会议论文等多种类型的中文学术资源;Web ofScience则收录了全球高影响力的学术期刊,适合查找国际前沿研究此外,各学科还有专业数据库,如PubMed(医学)、ACM DigitalLibrary(计算机科学)等文献管理工具能显著提高学术信息的组织效率EndNote支持多种数据库导入和格式转换,适合需要频繁引用的研究人员;Zotero作为开源工具,安装简便且有强大的浏览器插件;Mendeley则结合了文献管理和学术社交功能这些工具不仅可以整理文献,还能自动生成参考文献格式,节省大量时间媒体与新闻类信息搜集技巧新闻数据库选择高效检索策略•Factiva全球性媒体数据库,覆盖200•使用精准关键词,如特定事件名称、人名多个国家的36,000多个媒体源•限定时间范围,集中在事件发生前后•万得资讯(Wind)中国财经媒体和市•利用媒体分级,优先查看权威媒体报道场数据的重要来源•人民数据中国主流媒体的综合数据平台报道可信度评估•检查信息来源及记者背景•对比多家媒体的报道角度•寻找事实陈述与观点评论的区别媒体和新闻类信息是了解时事动态的重要渠道专业新闻数据库如Factiva和万得资讯提供了海量媒体内容的集中检索平台,具有覆盖面广、更新及时、检索功能强大等优势使用这些平台时,可以通过行业分类、地域筛选、媒体级别等维度快速定位所需新闻获取权威报道的关键是选择信誉良好的媒体源,并进行多源交叉验证对于重大事件,建议同时查阅官方媒体(如人民日报、新华社)、专业媒体(如财经类媒体)和地方媒体的报道,从不同角度构建全面的信息图景此外,建立媒体信息的定期监测机制也是保持信息敏感度的有效方法地理空间信息采集图像与视频信息搜集以图搜图技术视频关键帧提取图像信息分析以图搜图是基于计算机视觉的图像检索技视频关键帧提取是从视频序列中选择代表图像分析技术能从视觉数据中提取结构化术,能够通过上传图片查找相似或相同的性图像的技术常用的方法包括基于视觉信息常见应用包括图像分类(识别图像图像百度识图和谷歌图片搜索都采用了内容变化的场景切换检测、基于运动分析主题)、对象检测(定位特定物体)、图深度学习算法,提取图像特征并与数据库的关键动作捕捉等工具如可以像分割(区分图像不同区域)等这些技FFmpeg中的图像进行匹配,从而实现基于内容的批量提取视频帧,则提供了简单的截术已广泛应用于安防监控、医疗诊断、自VLC图像检索图功能动驾驶等领域企业与商业信息搜集基础工商信息通过天眼查、企查查等平台查询企业注册资本、股东结构、经营范围等基础信息,了解目标企业的基本状况经营与财务数据上市公司可通过年报、季报获取详细财务数据;非上市企业则可关注招投标信息、纳税等级等间接指标关联关系挖掘分析企业间的投资关系、高管任职情况、供应链合作等,揭示隐藏的商业网络和潜在风险风险信息评估检索企业的诉讼记录、行政处罚、失信信息等,评估合作风险,防范潜在纠纷企业与商业信息搜集是商业决策、风险评估和竞争分析的基础天眼查、企查查等商业信息平台整合了工商、司法、知识产权等多维度数据,提供全面的企业信息查询服务使用这些平台时,可以通过企业名称、统一社会信用代码、法定代表人等关键信息进行精准检索在商业信息搜集过程中,需要特别注意合规性要求根据《个人信息保护法》和《数据安全法》,企业信息搜集应当遵循合法、正当、必要的原则,避免过度收集和不当使用特别是对于个人信息相关的商业数据,应当严格遵守保密义务,防止信息泄露和滥用,确保数据安全国家及政策信息搜集政府公开数据门户政策法规数据库国家数据(data.stats.gov.cn)和地方中国政府网、国家法律法规数据库等官方数据开放平台提供了大量官方统计数据和渠道提供权威的政策文件检索第三方平公共服务信息这些平台通常支持在线查台如北大法宝、威科先行则提供更强大的询、数据可视化和文件下载功能,是研究检索和分析功能,适合专业研究和法律实宏观经济和社会发展趋势的重要资源务工作行业监管信息各部委和监管机构网站公布的行业数据、监管动态和规划文件,如银保监会的金融统计数据、工信部的产业政策等,是把握行业监管趋势的重要窗口政府公开数据是研究国家政策和经济社会发展的基础资源中国国家数据门户(data.stats.gov.cn)整合了国家统计局的各类统计数据,提供经济、人口、资源环境等多领域的权威数据各省市也建立了地方数据开放平台,如北京市数据资源网、上海市公共数据开放平台等,提供更细化的地方统计信息在法律政策检索方面,专业工具可以大大提高效率北大法宝提供从法律到司法解释的全面法律文献库;威科先行则在合规和税务领域有专业优势;国家法律法规数据库则是查询最新法律法规的官方渠道使用这些工具时,可通过法规类型、发布机构、效力级别等维度进行精准筛选,快速定位相关政策文件跨语种信息检索跨语种信息检索技术使我们能够突破语言障碍,获取全球范围内的信息资源谷歌翻译是一种常用的跨语言工具,它支持多种语言API100之间的互译,可以通过程序接口集成到各类应用中使用该,开发者可以实现网页内容实时翻译、多语言搜索工具开发等功能,大幅API扩展信息获取的广度有效的多语种检索策略包括首先,利用双语词典或术语库准确翻译专业术语和关键概念;其次,采用跨语言信息检索系统同时检索多种语言的资源;第三,结合机器翻译和人工校对,确保理解准确性;最后,关注不同语言地区的本土化平台和资源,获取更全面的信息视角在学术研究和国际商务等领域,掌握跨语种信息检索能力已成为必不可少的核心竞争力浏览器插件提升搜集效率Evernote WebClipper油猴脚本Tampermonkey Octotree一键保存网页内容到Evernote笔记本,支持全页保存、允许用户安装和管理用户脚本,可以自定义网页功能和为GitHub提供树形目录浏览功能,使开源代码浏览更加文章模式、简化文章、屏幕截图等多种保存方式,并可外观通过社区分享的脚本,可以实现自动填表、内容便捷对于需要搜集和学习开源项目的开发者,可以快添加标签和备注,是整理网络阅读材料的高效工具过滤、批量下载等功能,极大提升信息获取效率速导航复杂的代码库结构,提高代码阅读效率划词翻译选中网页文本即可显示翻译结果,支持多种语言和翻译引擎对于需要浏览外文资料的用户,无需在翻译网站和原文之间切换,大大提高了阅读流畅度以下是一个简单的油猴自动化脚本示例,用于提取网页中的所有图片链接//==UserScript==//@name图片链接提取器//@namespace http://tampermonkey.net///@version
0.1//@description提取页面所有图片链接//@author网络信息课程//@match*://*/*//@grant GM_setClipboard//==/UserScript==function{use strict;//创建浮动按钮const btn=document.createElementbutton;btn.textContent=提取图片;btn.style.position=fixed;btn.style.right=20px;btn.style.top=20px;btn.style.zIndex=9999;//点击事件btn.onclick=function{const imgs=document.querySelectorAllimg;let links=[];imgs.forEachimg={ifimg.src links.pushimg.src;};GM_setClipboardlinks.join\n;alert已复制+links.length+个图片链接到剪贴板;};document.body.appendChildbtn;};信息搜集中的爬虫基础发送HTTP请求使用requests库向目标网站发送GET或POST请求,模拟浏览器访问行为获取网页内容可以设置请求头信息、代理IP和超时时间等参数提高爬取成功率解析网页内容使用BeautifulSoup库解析HTML,提取所需信息通过CSS选择器或XPath定位元素,处理各类文本、图片和链接数据对于复杂网页,可能需要正则表达式辅助处理数据存储与处理将提取的数据保存为结构化格式(CSV、JSON等)或存入数据库根据业务需求进行数据清洗、去重和格式转换,为后续分析做准备网络爬虫是自动化获取网页内容的程序,是大规模信息搜集的核心工具爬虫的基本工作流程包括发送请求获取网页、解析提取所需信息、存储处理数据,以及根据需要继续爬取其他相关页面在技术实现上,Python是目前最流行的爬虫开发语言,其丰富的库和简洁的语法特别适合快速开发爬虫应用以下是一个简单的Python爬虫示例,使用requests和BeautifulSoup获取网页标题和所有链接import requestsfrombs4import BeautifulSoup#发送HTTP请求url=https://www.example.comheaders={User-Agent:Mozilla/
5.0Windows NT
10.0;Win64;x64}response=requests.geturl,headers=headers#解析HTML内容soup=BeautifulSoupresponse.text,html.parsertitle=soup.title.textlinks=[a[href]for ain soup.find_alla,href=True]#输出结果printf页面标题:{title}printf共找到{lenlinks}个链接for linkin links[:5]:#只显示前5个链接printlink大规模信息采集架构简介爬虫集群消息队列数据处理存储系统分布式Scrapy爬虫实例Kafka/RabbitMQ任务分发Spark/Hadoop并行计算分布式数据库/对象存储大规模信息采集面临着数据量大、实时性要求高、目标网站复杂多变等挑战,需要采用分布式架构提高系统效率和稳定性典型的分布式爬虫架构包括爬虫集群、任务调度、数据处理和存储管理四个核心部分Scrapy是一个流行的爬虫框架,结合Scrapy-Redis可以实现分布式爬取;Kafka则常用于任务队列和数据流处理,能够高效地分发爬虫任务和收集爬取结果在数据处理环节,大规模信息采集通常采用流水线模式,包括数据清洗、结构化、去重、分类等步骤Spark和Hadoop等大数据处理框架可以实现数据的并行处理,显著提升处理效率对于存储系统,根据数据特点可以选择关系型数据库(如MySQL集群)、文档型数据库(如MongoDB)或对象存储服务(如MinIO)合理的监控和报警机制也是确保大规模爬虫系统稳定运行的重要保障辨识信息真伪与溯源多源交叉验证通过多个独立来源对信息进行核实,特别是权威媒体、官方渠道和专业机构的报道信息在多个可靠来源中一致出现,可信度通常较高时间线分析建立信息传播的时间线,追踪最早的信息源和传播路径分析信息发布时间与事件发生时间的合理性,识别可能的时间矛盾图像反向搜索使用百度识图或谷歌图片搜索等工具对可疑图片进行反向搜索,检查是否为旧图新用或经过篡改的图像专业工具辅助利用Google FactCheck、百度识谣等专业平台查询已被证实的谣言使用元数据分析工具检查图片、视频的创建时间和地点信息在信息爆炸时代,辨别信息真伪的能力变得尤为重要事实核查(Fact-checking)是一种通过严格调查和核实来评估信息准确性的系统方法Google FactCheck Tools提供了全球范围内的事实核查结果检索,而百度识谣平台则专注于中文互联网谣言的辟谣内容聚合,这些工具可以帮助用户快速了解某一信息是否已被权威机构核实或辟谣信息溯源是确认信息可靠性的关键技术典型案例如2020年新冠疫情期间的武汉封城消息溯源通过对社交媒体最早发布消息的账号分析、官方媒体报道时间线梳理、相关政府文件查证等多维度调查,最终确认了消息的真实性和传播路径类似的溯源技术在打击网络谣言、追踪信息操纵活动中发挥着重要作用网络谣言的识别与防范典型网络谣言特征辅助谣言识别技术AI使用煽动性、情绪化的标题和表述现代谣言识别技术已经开始利用人工智能算法提高准确率和效率•典型的谣言识别模型包括信息来源模糊,常使用某专家表示等不明确表达AI•缺乏具体时间、地点、人物等细节•基于的文本特征分析,识别谣言常用的语言模式•NLP逻辑矛盾或科学常识错误•社交网络传播路径分析,检测非自然传播特征•利用公众恐慌心理,涉及健康威胁、灾难等敏感话题•多模态融合模型,综合分析文本、图像和用户行为•知识图谱验证,检查信息与已知事实的一致性•网络谣言是指在互联网上传播的未经证实或故意虚构的虚假信息近年典型案例如食品含有有害物质类谣言,这类谣言通常利用公众XX对食品安全的担忧,缺乏具体研究依据,但传播速度极快另一类是灾难类谣言,如地震预测、疫情扩散等,这类谣言往往在突发事件期间大量出现,加剧社会恐慌有效防范网络谣言需要多方面措施个人层面应培养媒体素养和批判性思维,对异常信息保持怀疑态度;平台层面需建立内容审核机制和辟谣渠道;社会层面则需加强信息透明度和权威信息的及时发布谣言传播的技术特征研究表明,谣言通常有特定的传播网络结构和时间模式,这些特征已被用于开发自动谣言检测系统,提高谣言识别的准确性和效率信息存储与管理本地存储云端存储直接存储在个人设备上存储在网络服务提供商的服务器上•优点访问速度快,不依赖网络•优点容量大,多设备访问•缺点容量有限,设备损坏风险•缺点依赖网络,隐私顾虑混合存储数据库存储3结合多种存储方式的优势采用结构化方式进行信息组织•优点灵活性高,安全性好•优点查询效率高,支持复杂分析•缺点管理复杂,成本较高•缺点需要技术支持,结构较固定信息的有效存储和管理是确保数据可用性和安全性的基础对于本地和云端存储的选择,需要考虑数据量、访问频率、保密要求等因素一般而言,高频访问的小型数据适合本地存储;大型数据或需多设备访问的信息更适合云存储;而关键业务数据则宜采用混合存储策略,同时保留本地和云端备份数据备份是防止信息丢失的关键措施,推荐采用3-2-1备份策略保留至少3个数据副本,使用2种不同的存储介质,并至少有1个异地备份针对不同类型的信息,还应建立合理的分类体系和命名规则,如按项目/时间/主题设计文件夹结构,使用统一的文件命名格式对于需要长期保存的信息,定期检查文件完整性和格式兼容性也是必要的管理措施信息清洗与规范化数据筛选剔除无关信息,保留符合需求的有效数据去重处理识别并合并重复内容,保持数据唯一性格式标准化统一日期、货币、单位等格式,确保数据一致性质量验证检查缺失值、异常值,保证数据完整性信息清洗是将原始数据转换为可用于分析的高质量数据的过程,是数据处理的核心环节常见的数据清洗操作包括去除重复记录、处理缺失值、纠正格式错误、标准化表达方式等例如,在处理用户调查数据时,需要将不同表达方式的相同地理位置(如北京市、北京、BJ)统一为标准格式,以便进行准确分析数据规范化工具在提高信息处理效率方面发挥着重要作用专业工具如Python的Pandas库提供了强大的数据清洗功能;OpenRefine适合非专业人员进行可视化数据清理;Talend OpenStudio则提供了完整的ETL提取-转换-加载流程支持在实际工作中,建立标准化的数据处理流程,从数据采集阶段就考虑规范化要求,可以显著减少后期清洗工作量,提高数据质量和处理效率文本内容的处理与抽取深度语义理解把握文本核心含义和情感倾向关系抽取识别实体间的语义关联实体识别标记人名、地点、组织等关键实体分词与词性标注将文本切分为词语并标注语法属性文本处理是从非结构化文本中提取结构化信息的过程,是信息价值挖掘的关键环节关键词提取技术用于识别文本中最具代表性的词语,常用算法包括TF-IDF词频-逆文档频率、TextRank和主题模型等自动摘要技术则通过提取或生成方法,压缩原文并保留核心内容,帮助用户快速把握文章要点情感分析是判断文本情感倾向(正面、负面或中性)的技术,广泛应用于舆情监测、产品评价分析等场景基础的情感分析方法包括情感词典匹配和机器学习分类例如,通过统计产品评论中正负面情感词的数量和强度,可以量化用户满意度;结合词频分析和关键词提取,还可以识别引发情感的具体原因,为产品改进提供依据随着深度学习技术的发展,基于BERT等预训练模型的情感分析方法显著提高了准确率图片与多媒体内容处理文字识别视频内容转写图像分类与识别OCR(光学字符识别)技术可以从图像中视频转写技术通过语音识别将视频中的对计算机视觉技术可以对图像内容进行分OCR识别出文字内容,将图像文本转换为可编话转换为文本,并进行时间轴标记高级类、标记和理解常见功能包括图像分类辑和可搜索的文字现代系统结合了系统还能识别不同说话人,自动生成字(识别图像主题)、物体检测(定位识别OCR计算机视觉和深度学习技术,能够处理各幕结合语义分析,可以为视频建立内容图像中的物体)、场景分割(区分图像不种字体、语言和复杂版面常用工具如百索引,支持按关键词搜索视频片段典型同区域)等这些技术广泛应用于安防监度和开源引擎,准确应用如会议录音转写、视频平台的内容检控、医疗诊断、内容审核等领域OCR APITesseract率可达以上索功能95%信息分类与标签体系构建确定分类目标明确分类的业务需求和应用场景设计分类架构建立层次化、互斥且全面的分类体系创建标签词库构建标准化的标签词表和同义词表实现自动化开发算法实现内容自动分类与标引信息分类与标签体系是组织和管理大量信息的基础架构良好的分类标准应满足以下要求覆盖范围全面、类别间界限清晰、结构层次合理、便于扩展更新在实际应用中,根据信息性质可采用学科分类(如图书馆分类法)、主题分类(如新闻主题分类)或功能分类(如商品分类)等不同方式自动标签算法能够大幅提高信息组织效率常用的自动标签方法包括基于规则的方法(利用预定义的关键词和规则);基于统计的方法(如TF-IDF和主题模型);以及基于机器学习的方法(如文本分类模型和命名实体识别)例如,在新闻自动分类系统中,可以结合关键词匹配和深度学习模型,准确将文章分配到政治、经济、科技等不同类别,并自动提取关键实体作为标签,实现对海量新闻的智能管理信息聚合与摘要自动摘要技术多源信息聚合自动摘要技术可分为提取式和生成式两大类提取式摘要通过识多源信息聚合技术旨在从不同渠道收集相关信息,去除冗余,形别并保留原文中最重要的句子或段落,形成摘要内容;生成式摘成综合视图实现多源聚合的关键步骤包括要则理解原文后生成新的表达,更接近人工摘要的效果内容爬取从各信息源获取原始数据
1.常用算法包括基于句子排序的方法(如)、基于聚TextRank信息抽取识别关键内容和元素
2.类的方法(将语义相似的句子分组)、以及基于深度学习的方法相似度计算判断不同来源信息的相关性
3.(如模型和预训练语言模型)评估摘要质量通常采Seq2Seq冗余消除移除重复或高度相似的内容
4.用(ROUGE Recall-Oriented Understudyfor Gisting合并整理按主题、时间等维度组织信息)指标,衡量自动摘要与参考摘要的重合度
5.Evaluation生成摘要提供信息概览和关键观点
6.以新闻聚合为例,今日头条等平台能够自动收集来自各大新闻网站、社交媒体和自媒体的内容,通过算法识别相似新闻,合并为事件专题,提供多角度报道和发展时间线在企业情报领域,多源聚合系统可以整合行业报告、新闻动态、社交媒体反馈等信息,形成全面的竞争对手分析报告,为决策提供支持信息可视化基本方法信息可视化是将抽象数据转化为直观图形的技术,能够帮助人们更有效地理解和分析数据常用的数据可视化工具包括(适合简单图表创Excel建)、(专业的商业智能可视化平台)、(微软的数据分析工具)以及的、等库(适合自定义可Tableau PowerBI Pythonmatplotlib seaborn视化和自动化处理)不同工具各有优势,操作简便但功能有限,则灵活强大但需编程技能Excel Python在可视化应用中,信息地图和关系网是两种常见形式信息地图将数据与地理位置关联,展示空间分布特征,如各省市经济指标比较、疫情传播路径等关系网则展示实体间的连接和互动,如社交网络分析、组织架构可视化、知识图谱等年新冠疫情期间的疫情地图是典型的信2020息可视化案例,它实时显示各地区确诊人数、传播趋势和风险等级,通过直观的视觉呈现帮助公众和决策者把握疫情动态舆情分析与预警案例信息分析模型基础SWOT分析法内部因素外部因素有利因素优势Strengths机会Opportunities不利因素劣势Weaknesses威胁ThreatsSWOT分析是一种评估组织或项目内外部环境的战略规划工具,通过识别关键的强弱项、机会与威胁,帮助确定战略方向和决策波士顿矩阵BCGBCG矩阵是由波士顿咨询集团开发的产品组合分析工具,基于市场增长率和相对市场份额两个维度,将产品分为四类•明星产品高增长、高份额,需要投资扩大优势•现金牛低增长、高份额,稳定产生现金流•问号产品高增长、低份额,需进一步评估和投资•瘦狗产品低增长、低份额,考虑退出或转型信息分析模型是将收集到的数据转化为决策洞察的重要工具SWOT分析广泛应用于战略规划和项目评估,通过系统评估内外部因素,帮助组织制定合理策略例如,在新产品开发决策中,SWOT分析可以帮助企业评估自身技术优势、资源不足、市场机会和竞争威胁,从而确定产品定位和营销策略波士顿矩阵BCG则特别适用于多产品线企业的资源分配决策以某科技公司为例,其人工智能技术可能是明星业务(高增长高份额),传统软件开发是现金牛(低增长高份额),新兴的区块链业务是问号(高增长低份额),而老旧的硬件产品线则是瘦狗(低增长低份额)基于这一分析,企业可以合理分配研发和营销资源,确保整体业务组合的健康发展人工智能在信息处理中的应用自然语言处理NLP应用场景大语言模型的信息抽取能力•文本分类自动对文档进行主题或情感分类•多样文本理解处理各种格式和领域的文本•命名实体识别从文本中提取人名、地点、组织•上下文感知把握长文本的语义连贯性等实体•结构化输出将非结构化文本转为表格、JSON•关系抽取识别文本中实体间的语义关系等格式•自动问答理解问题并从知识库中检索答案•知识整合结合先验知识进行信息补充和验证•机器翻译在不同语言间进行自动翻译AI辅助信息分析的局限性•数据偏见模型可能继承训练数据中的偏见•事实准确性可能产生幻觉内容•解释性不足难以解释复杂模型的决策过程•安全与隐私使用中的数据保护挑战自然语言处理NLP技术已成为信息处理的重要工具,能够理解和生成人类语言,极大地提高了非结构化文本数据的利用效率在实际应用中,NLP技术可以自动分析客户反馈、提取合同关键条款、监测社交媒体情绪、生成新闻摘要等,为企业和机构提供决策支持例如,金融机构使用NLP技术分析研报和新闻,自动提取市场情绪和趋势信号,辅助投资决策大语言模型LLM如GPT系列在信息抽取领域展现出强大能力以某大型调研项目为例,研究团队使用GPT模型分析数千份开放式问卷回复,自动识别共同主题和观点,并生成结构化摘要,将原本需要数周的人工编码工作缩短至几小时另一个案例是法律文档审阅,通过大语言模型自动识别合同中的关键条款、义务和风险点,显著提高了法务工作效率然而,这些技术仍面临准确性和可靠性挑战,通常需要人类专家的监督和验证信息安全风险与防护万91%1580数据泄露增幅平均损失2023年中国数据泄露事件数量同比增长每起企业数据泄露事件的平均经济损失元76%内部因素由内部人员疏忽或故意行为导致的泄露占比2023年发生的多起大型企业数据泄露事件揭示了严峻的信息安全形势典型案例包括某知名电商平台因API安全漏洞导致上亿用户信息泄露,以及某金融科技公司因前员工恶意操作导致核心数据被窃取这些事件不仅造成直接经济损失,还带来声誉受损、用户流失和监管处罚等严重后果调查显示,数据泄露的常见原因包括技术漏洞利用、权限管理不当、内部人员威胁和第三方供应链风险等针对个人信息安全,推荐以下七条防护建议一是使用强密码并定期更换;二是开启双因素认证;三是谨慎分享个人信息,特别是在社交媒体上;四是定期检查账户活动,及时发现异常;五是使用加密通信工具保护敏感对话;六是警惕钓鱼攻击,不点击可疑链接;七是及时更新设备和软件,修补安全漏洞通过这些措施,可以有效提升个人信息的安全防护水平,降低数据泄露风险黑灰产信息搜集与应对常见黑产信息类型恶意爬虫特征黑灰产常搜集的信息包括用户隐私数据(身恶意爬虫通常表现为异常的访问模式(高频份证、银行卡信息)、账号密码、企业内部率、规律性强)、使用伪造的User-文档和商业机密等这些信息通常通过网络Agent、无视robots.txt规则、分布式IP访攻击、社会工程学、数据交易或非法爬虫等问等特征这类爬虫往往绕过正常限制,大方式获取,用于实施诈骗、勒索或非法交量抓取网站数据,造成服务器负担和数据泄易露风险反爬虫技术有效的反爬虫技术包括访问频率限制、动态页面加载、图形验证码、动态令牌验证、蜜罐技术和行为分析等这些措施能够识别和阻止自动化工具,保护网站内容不被批量采集,同时保障正常用户访问体验黑灰产信息搜集活动对个人和企业安全构成严重威胁根据国家网络安全中心数据,2023年发现的针对企业的定向数据窃取攻击增长了35%,其中超过一半涉及商业情报窃取典型手法包括通过钓鱼邮件植入木马、利用供应链漏洞进行渗透、以及针对员工的社会工程学攻击等这些攻击不仅造成直接的数据泄露,还往往是更大规模网络犯罪的前奏在反网络爬虫技术领域,多层次防护策略被证明最为有效技术层面可采用前端混淆(如动态DOM结构、CSS反选取)、API保护(如OAuth认证、请求加密)和后端检测(如流量分析、IP信誉系统)相结合的方式;管理层面则应制定数据分级策略,对敏感信息实施更严格的访问控制和监控值得注意的是,反爬虫措施应当注重平衡,在阻止恶意采集的同时,不影响搜索引擎和正常用户的访问体验信息采集相关法规合规要求《网络安全法》重点条文GDPR跨境数据要求《中华人民共和国网络安全法》于年月日正式实施,对网络信《通用数据保护条例》是欧盟实施的数据保护法规,对涉及欧201761GDPR息采集活动提出了明确的法律要求其中重点条文包括盟公民数据的中国企业也有约束力其跨境数据传输要求包括第四十条网络运营者应当对其收集的用户信息严格保密,建立健数据出境前需进行充分性决定、适当的保障措施或获得明确同意••全用户信息保护制度向第三国传输个人数据需确保该国有同等水平的数据保护•第四十一条收集、使用个人信息,应当遵循合法、正当、必要的•可通过标准合同条款、具有约束力的公司规则等机制•SCC BCR原则,公开收集、使用规则,明示收集、使用信息的目的、方式和确保合规范围,并经被收集者同意违反规定最高可处以全球年营业额或万欧元的罚款•4%2000第四十二条网络运营者不得泄露、篡改、毁损其收集的个人信•息;未经被收集者同意,不得向他人提供个人信息第六十四条违反个人信息保护规定的行为,可处罚款、责令停业•整顿或吊销相关业务许可证等处罚近年来,中国逐步建立了以《网络安全法》、《数据安全法》和《个人信息保护法》为核心的数据合规法律体系这一三法体系对网络信息搜集活动提出了全面的合规要求,包括数据处理的合法性基础、数据分类分级管理、重要数据保护、个人信息处理规则等在实践中,开展信息搜集活动前,应当进行合规评估,确定信息搜集的法律依据,并采取相应的技术和管理措施保障数据安全公开信息与专有信息界定完全公开信息有条件公开信息任何人可自由获取和使用需注册、付费或特定条件下访问•政府公开数据•会员内容•公开学术论文•付费数据库•公司公开报告•特定平台内容个人敏感信息专有信息涉及个人隐私的高度保护信息具有明确所有权和使用限制•健康医疗记录•商业机密•生物识别信息•未公开研究数据•财务信息•内部战略文件公开数据的界定标准主要包括信息发布渠道的公开性(如政府官网、新闻媒体);信息获取的条件限制(是否需要授权、付费或特定身份);信息发布者的公开意图(是否明确表示供公众使用);以及相关法律法规的规定(如政府信息公开条例)一般而言,通过公开渠道正当获取、不违反相关平台使用条款的信息,可视为公开信息对于专有信息的保护,建议采取多层次防护策略首先,明确界定专有信息范围,建立分类分级制度;其次,实施严格的访问控制,确保只有授权人员能够接触敏感信息;第三,与员工和合作伙伴签订保密协议,明确保密义务和违约责任;第四,采用加密、水印等技术手段防止信息泄露;最后,建立信息安全事件响应机制,及时处理可能的泄露事件在信息搜集过程中,应当尊重他人的专有信息权利,避免使用非法手段获取未公开信息信息搜集实践案例企业危机应对危机爆发某知名食品品牌产品被社交媒体爆料含有有害物质,话题在微博迅速发酵,2小时内阅读量突破100万信息搜集危机公关团队立即启动全网监测,收集微博、知乎、微信等平台上的相关讨论,关注媒体报道动态和竞品反应情报分析对搜集的信息进行溯源分析,发现最初爆料来自竞争对手相关账号;同时对公众关注点进行聚类,发现安全性和监管责任是核心关注危机应对基于情报分析,公司迅速发布权威检测报告,澄清产品安全性;同时邀请第三方机构进行现场直播检测,增强公信力结果评估危机响应后24小时内,负面情绪下降60%,品牌支持率恢复;后续法律团队根据搜集证据对恶意造谣者提起诉讼这个案例展示了信息搜集在企业危机应对中的关键作用在危机爆发初期,全面的信息搜集为企业提供了事态全貌,帮助理解公众关注点和舆论走向通过跨平台监测(包括微博热搜、知乎高赞回答、行业论坛讨论和传统媒体报道等),企业能够掌握危机传播路径和关键意见领袖立场,为后续应对提供依据多渠道情报融合分析是此次危机处理的关键环节通过将社交媒体数据与行业报告、历史案例和竞品反应等信息结合分析,企业识别出了危机的真实来源和公众关切基于这些发现,企业能够有针对性地制定沟通策略,首先解决公众最担忧的产品安全问题,同时通过法律手段应对恶意造谣这种数据驱动的危机应对方式,不仅提高了响应速度,也显著提升了危机管理的精准度和有效性信息搜集实践案例市场调研信息处理实践案例智能摘要数据采集从电商平台抓取1000条产品评论预处理去除垃圾评论,分词并识别关键词模型处理使用基于BERT的抽取式摘要模型生成摘要按主题分类输出结构化摘要报告某电子商务平台开发了一套智能评论摘要系统,旨在自动处理海量产品评论,为消费者和商家提供简明扼要的观点总结该系统能够在20秒内处理1000条产品评论,并生成按主题分类的结构化摘要系统的核心是一个基于BERT的抽取式摘要模型,该模型通过深度学习识别评论中的关键句子,并根据语义相似度进行聚类,最终生成涵盖产品不同方面(如外观、性能、价格)的综合评价在实际应用中,系统面临的主要挑战是处理低质量和模糊评论评估显示,系统在产品核心功能和明显优缺点方面的摘要准确率达到85%,但在处理模糊表达或专业术语时准确率降至70%为提高性能,开发团队采取了多项优化措施引入情感分析模块,区分正面和负面评价;结合产品知识图谱,提高专业术语理解;利用用户行为数据为评论加权,突出高质量内容这些改进使系统的整体准确率提升到88%,成为平台提升用户体验的重要工具校园网络信息搜集应用新生信息采集系统校园舆情监测平台数据分析与可视化现代高校新生管理已从传统纸质表格转向校园舆情监测平台实时跟踪校内外社交媒信息系统将采集的数据进行多维度分析和智能化信息采集系统这类系统通常整合体、论坛和新闻中与学校相关的讨论系可视化展示,如生源地图、专业分布、学了多渠道数据收集功能,包括网页表单、统通过关键词监测、情感分析和热点识生画像等这些直观的数据呈现帮助学校移动应用和微信小程序,支持学生基本信别,及时发现可能影响校园稳定的舆情事了解学生群体特征,优化教学资源配置,息、学习经历、特长爱好等多维度数据的件,为学校管理层提供决策参考,防止负提高管理决策的科学性和针对性一站式采集和验证面事件扩大网络信息搜集常见误区信息过滤不足信息茧房效应盲目收集大量信息而不进行筛选和价值判断,导致信息冗余和分析效率低下优化建仅收集与自身观点一致的信息,忽略反面声音,导致认知偏差和决策失误优化建议议建立明确的信息筛选标准,关注信息来源的权威性和时效性,使用关键词和主题过有意识地寻找多样化信息源,关注不同观点,定期评估信息来源的多元性,保持开放心滤技术减少噪音态忽视时效性合规意识不足使用过时数据进行分析和决策,未及时更新信息库优化建议建立信息更新机制,为在信息搜集过程中忽视法律法规和伦理边界,可能导致法律风险优化建议制定合规重要数据设置有效期,关注行业动态变化,定期清理和更新数据库信息搜集指南,开展合规培训,使用合法工具和渠道,尊重个人隐私和知识产权除上述常见误区外,信息搜集中还存在一些特定场景的典型错误例如,在企业情报收集中,过度依赖单一渠道(如仅使用搜索引擎)会导致信息片面;在学术研究中,忽视原始数据验证可能引入错误结论;在舆情监测中,仅关注热门平台而忽视垂直社区,可能错过关键信号这些错误往往源于信息搜集方法不当、工具使用不熟练或对信息生态理解不足有效的信息搜集应当遵循目标导向、多源验证、价值筛选、定期更新的基本原则在实践中,应当首先明确信息需求,再选择合适的搜集策略和工具;建立信息评估机制,对来源可靠性、内容相关性和时效性进行评估;采用结构化方法整理信息,便于后续分析和应用;同时重视信息安全和隐私保护,确保搜集活动合法合规持续优化信息搜集流程,才能提高信息的质量和使用价值网络信息搜集技能提升建议推荐进阶书籍线上学习资源•《信息检索导论》(克罗夫特等著)——系统介绍•中国大学MOOC大数据分析与应用课程信息检索的理论基础和技术方法•Coursera数据科学与信息检索专项课程•《开源情报技术手册》(迈克尔·巴祖克著)——详•DataCamp DataCollection andProcessing解OSINT实用技巧和工具with Python系列课程•《数据挖掘概念与技术》(韩家炜著)——介绍•B站Python爬虫实战视频教程数据处理和分析的核心方法•《Python网络数据采集》(瑞安·米切尔著)——实用的网络爬虫开发指南社群与竞赛•DEFCON CTF信息安全竞赛•kaggle数据分析竞赛平台•GitHub开源社区参与•SegmentFault、掘金等技术社区交流提升网络信息搜集技能需要理论学习与实践相结合在基础知识方面,建议系统了解信息检索原理、数据结构、自然语言处理等领域知识;在技术能力上,应当掌握至少一种编程语言(如Python)和相关库(如Requests、BeautifulSoup、Pandas等),熟悉正则表达式、API调用和数据清洗技术;在工具应用方面,熟练使用各类专业搜索引擎、爬虫软件和数据分析平台实践是提升信息搜集能力的关键可以通过以下方式积累经验一是设计个人项目,如创建新闻聚合器、社交媒体分析工具等;二是参与开源项目,在实际协作中学习先进方法;三是挑战CTF(夺旗赛)等信息搜集竞赛,在竞争中提升技能;四是加入专业社群,与同行交流经验和前沿技术同时,保持对新技术和工具的持续关注,如大语言模型、知识图谱等,不断更新自己的技能库新兴技术展望与前沿趋势生成式AI自动生成分析报告和信息摘要区块链确保数据可追溯性和真实性联邦学习保护隐私的分布式数据分析知识图谱构建信息语义网络生成式AI正在深刻改变信息搜集与处理领域大型语言模型(如GPT系列)不仅能够理解和生成自然语言,还能执行信息抽取、摘要生成和内容分类等任务,极大提高了非结构化数据处理效率在实际应用中,生成式AI可以自动整合多源信息、识别关键观点、生成分析报告,甚至根据历史数据预测趋势然而,这些技术也面临幻觉(生成不实内容)、信息偏见等挑战,需要建立有效的人机协作机制确保输出质量区块链技术在数据溯源领域展现出独特价值通过将信息来源、创建时间和修改历史记录在分布式账本中,区块链可以有效防止信息篡改,提供可验证的数据来源这一特性对于打击虚假信息、保障数据真实性具有重要意义例如,MediaChain项目使用区块链技术追踪数字内容的创建和分发,确保创作者权益;而供应链领域的区块链应用则可以追踪产品从原材料到消费者的完整流程,提高信息透明度随着技术成熟,预计区块链将与AI、IoT等技术融合,构建更可信的信息生态系统网络信息搜集行业发展与就业课程总结与复习要点实践应用将所学知识应用于实际场景工具掌握熟练使用各类信息搜集处理工具流程方法系统化的信息搜集与处理流程核心概念信息的基本理论与分类体系本课程覆盖了网络信息搜集与处理的完整知识体系,从基础概念到实践应用核心概念方面,我们学习了信息的定义与特征、信息分类(结构化/非结构化)、搜集类型(明面/深网)以及信息来源分类流程方面,掌握了从需求定义、资源定位到信息获取、处理与应用的完整工作流,以及相应的方法论和最佳实践工具使用是本课程的重要内容,涵盖了搜索引擎高级技巧、网页采集工具、API数据获取、浏览器插件、爬虫编程等多种技术手段同时,我们也关注了信息处理环节的关键技能,包括数据清洗、文本分析、信息分类与标签、可视化方法等特别强调的是,在整个信息搜集与处理过程中,必须遵守法律法规,尊重个人隐私,坚守伦理边界,这是信息工作者的基本职业准则,也是本课程的黄金法则问答互动与课程结语在线学习资源实用工具下载下节课预告为持续学习提供支持,我们建立了课程资源库,包含推荐课程网站提供了多款实用工具的安装包和使用教程,包括下节课我们将进入实践环节,以小组形式开展网络信息搜书籍电子版、精选论文、案例集和实践指南等这些资源数据采集软件(如Octoparse教育版)、分析工具(如集与分析项目请各位同学提前组队(3-5人一组),并将通过课程网站共享,供大家课后深入学习使用同时,NLTK、Gephi)和可视化平台这些工具大多提供免费从课程网站选择一个感兴趣的项目主题课前需完成项目我们还整理了行业前沿文章和研究报告,帮助大家了解最版或教育许可,可以满足学习和个人项目需求对于计划书,包括研究问题、信息需求分析、预期成果等内新发展动态Python库,我们也准备了环境配置指南和代码示例容,以便在课堂上进行指导和讨论在本学期的课程中,我们共同探索了网络信息搜集与处理的丰富世界从理论基础到实际应用,从工具使用到伦理思考,希望这些知识和技能能够成为大家未来学习、工作和生活的有力支持信息时代的核心竞争力不在于获取信息的数量,而在于高效筛选、深度理解和创造性应用的能力最后,感谢每位同学的积极参与和思考贡献课程虽然告一段落,但信息素养的培养是终身的课题希望大家在实践中不断探索和创新,既能从海量信息中获取所需,也能保持独立思考的能力,成为数字时代的明智公民和专业人才欢迎大家通过课程讨论区或邮件继续交流,分享学习心得和实践体会下学期的《数据分析与可视化》课程将是本课程的自然延续,期待与大家再次相见!。
个人认证
优秀文档
获得点赞 0