news 2026/4/15 3:23:01

基于协同过滤算法+爬虫的招聘信息推荐可视化系统设计与实现

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
基于协同过滤算法+爬虫的招聘信息推荐可视化系统设计与实现

前言

🌞博主介绍:✌CSDN特邀作者、全栈领域优质创作者、10年IT从业经验、码云/掘金/知乎/B站/华为云/阿里云等平台优质作者、专注于Java、小程序/APP、python、大数据等技术领域和毕业项目实战,以及程序定制化开发、文档编写、答疑辅导等。✌🌞

👇🏻精彩专栏 推荐订阅👇🏻
2025-2026年最值得选的微信小程序毕业设计选题大全:200个热门选题推荐✅

2025-2026年最值得选的计算机毕业设计选题大全:500个热门选题推荐✅

Java精品实战案例《500套》

微信小程序项目精品案例《200套》
🌞文末获取源码+数据库+文档🌞
感兴趣的可以先收藏起来,还有大家在毕设选题,项目以及论文编写等相关问题都可以给我留言咨询,希望帮助更多的人


系统功能设计

系统将分为用户和管理员和企业三种角色,具体功能需求如下所示:
(一)管理员模块功能
管理员:
1.登录
2.个人中心:管理员自己的密码修改
3.企业管理:只管理注册出来的公司(删除,修改)
4.用户管理:管理注册出来的用户(删除,修改)
5.新闻发布:发一些上海最新出来的人才收录政策到用户的新闻板块(比如像什么样的人才可以落户,提供什么保障这些)标题,内容
6.数据可视化(大屏展示):(要求学历统计,岗位名称统计、公司规模统计、薪资统计、要求工作经验统计)括号里的统计用爬取出来的公司信息,了解现在it市场的一个情况。
7、求职建议与趋势:管理员定期发布各行业或者职位的求职建议与趋势。
(二)企业模块功能
企业:
1.企业的登录注册
2.个人中心
3.招聘信息填入:公司名称,岗位名称,公司规模,要求学历,要求经验,薪资,联系人电话,联系人名字
4.简历查收:查看发送过来的用户简历
5.面试回复 :可以向用户发送信息,也可以接收用户的消息
备注:这块的一切功能只和注册的公司有关,和爬取的公司数据无关

(三)用户模块功能
用户:
登录注册
招聘信息的展示,所有信息都是从boss直聘上爬取
协同过滤是根据相似用户经常点击的岗位推荐,比如该用户一直点击前端工程师,那在第一页中点击推荐岗位就可以跳转到一个页面里面就是系统推荐的公司。(这一块如果有逻辑问题请联系我)
这一页中再加一个搜索栏,输入公司名称可以搜到注册出来的公司,比如我之前在企业中注册了一个公司叫强盛网络,我搜索了以后就可以看到该公司的招聘信息,然后有个按钮为投递简历,就是将我的简历发送到该企业的简历查收这里。
我的简历:个人姓名,手机号,邮箱,年龄,工作经验,学历,专业,学校经历,项目经验。
消息回复:这里对应的就是企业中的面试回复,可以和企业那边进行交流。
个人中心:昵称,密码等的修改
新闻资询:可以看到管理员发布过来的新闻。
求职建议与趋势:查看各行业或者职位的求职建议与趋势。

详细视频演示

❤文末卡片,滴滴我获取更详细的演示视频

系统实现效果

在个人简历页面中,用户可通过填写表单的方式输入姓名、联系方式、教育背景及工作经历等基本信息,或选择直接上传附件简历以完成提交。提交过程中,系统会对用户身份进行验证,并对简历数据进行处理,确保信息的完整性与准确性。处理完成后,简历信息将被存储至数据库中,以便后续调用与管理。用户可在提交后实时查看简历提交结果,确认简历是否成功保存。该功能设计旨在为用户提供便捷的简历提交与查看体验,同时确保数据的可靠存储与高效管理。通过表单与附件上传的双重方式,本课题充分考虑了用户的不同需求,提升了系统的灵活性与实用性。此外,身份验证与数据处理环节的引入,进一步保障了系统的安全性与数据的完整性。最终,用户可通过直观的界面反馈,及时了解简历提交状态,从而提升整体使用体验。

本课题设计并实现了简历提交模块,通过 /submitresume 路径映射的 submit 方法处理用户提交的简历请求。当用户端发起简历提交请求后,用户控制器首先进行身份验证,确保用户权限合法。验证通过后,用户控制器调用用户服务层进行简历数据处理。用户服务层对接收到的简历信息进行规范化处理,并将其传递至简历实体层。简历实体层负责将数据持久化存储至数据库表中,确保简历信息的完整性和一致性。数据库表在成功保存简历数据后,向用户服务层返回确认信息。用户服务层将处理结果反馈给用户控制器,用户控制器最终将提交结果返回至用户端,完成整个简历提交流程。该模块通过分层架构设计,实现了简历数据的高效处理与安全存储,确保了系统功能的可靠性与可维护性。

在BOSS直聘信息页面中,用户可通过输入职位名称或公司名称等关键词进行搜索,或通过选择职位分类(如技术、销售、运营等)进行筛选。搜索完成后,页面展示区将呈现职位名称、公司名称、薪资范围及工作地点等基本信息。点击具体职位后,用户可进一步查看详细的职位描述及公司介绍。该功能设计旨在帮助用户快速定位符合其需求的职位信息,并通过分层展示的方式提升信息获取效率。界面设计简洁直观,便于用户操作与信息浏览。通过关键词搜索与分类筛选的双重机制,本课题有效提升了用户在求职过程中的信息检索效率与体验。此外,详细职位描述与公司介绍的展示,为用户提供了更为全面的决策依据,有助于其更好地匹配自身职业需求。整体而言,该功能设计充分考虑了用户的实际需求,具备较高的实用性与易用性。

本课题设计的Boss直聘信息查看模块通过/viewbosszhipin映射的view方法实现用户对企业信息的查询与展示。该模块的核心流程始于用户端发起查看请求,企业控制器接收请求后调用企业服务层进行信息获取。企业服务层进一步查询信息实体层,信息实体层通过访问数据库表获取所需数据。数据库表返回查询结果后,信息实体层将数据传递给企业服务层,企业服务层再将信息返回给企业控制器。最终,企业控制器将获取到的信息展示给用户端。整个流程确保了数据的准确传递与高效展示,满足了用户对Boss直聘信息的实时查看需求。通过分层架构的设计,系统实现了模块化与解耦,提升了系统的可维护性与扩展性。

本课题设计并实现了一个岗位申请系统,用户可通过该系统的在线表单提交个人信息及岗位意向等数据。系统采用自动化验证机制,对用户输入的信息进行完整性及准确性检查,确保数据的有效性。提交过程中,系统会将验证通过的申请数据实时存储至后台数据库,形成完整的申请记录。数据处理完成后,系统会生成相应的申请结果,用户可通过同一界面查看提交状态,确认申请是否成功。该功能模块采用前后端分离架构,前端负责数据采集与结果展示,后端负责数据验证与存储,实现了高效的数据处理流程。系统界面设计遵循用户体验原则,采用清晰的布局与友好的交互方式,确保用户能够便捷地完成申请操作。通过该系统的实施,能够有效提升岗位申请流程的自动化水平,减少人工干预,提高数据处理效率与准确性。

在岗位申请模块中,用户可通过提交申请信息完成岗位申请流程。本课题设计了一个/submit_application接口,其映射的submit方法用于接收用户端的申请数据。申请信息首先由岗位申请控制器进行接收,并调用服务层对数据进行完整性验证。验证过程中,服务层确保所有必填字段均符合规范,且数据格式正确。若验证通过,服务层将申请信息传递至实体层,实体层负责将数据持久化存储到数据库中。数据存储完成后,服务层将处理结果返回给控制器,控制器再将结果反馈给用户端,告知用户申请是否成功。通过这一流程,本课题实现了岗位申请信息的完整处理与存储,确保了数据的准确性与一致性,同时为用户提供了清晰的操作反馈,提升了系统的可用性与用户体验。

在招聘信息发布页面中,用户可通过填写表单输入职位名称、工作地点、薪资范围等关键信息,或选择预设的职位类别(如技术类、市场类等)进行信息提交。提交完成后,系统将自动将用户的招聘信息请求发送至企业端。企业接收到请求后,会对信息进行初步整理与确认,确保内容完整且符合要求。随后,企业将整理好的招聘信息发送至管理员进行审核。管理员收到信息后,会对招聘信息的合规性、准确性及完整性进行详细审核。审核通过后,管理员将结果反馈至企业,并将招聘信息正式发布至平台。企业可在招聘信息发布后,通过平台查看信息的展示情况,确保信息无误且符合预期。该流程通过规范化操作,保障了招聘信息发布的准确性与时效性,为后续的招聘工作奠定了良好基础。

本课题设计的招聘信息发布模块允许企业发布招聘信息,并经过管理员审核后公开。具体实现过程中,/publish_recruitment 映射的 publish 方法用于处理招聘信息的发布流程。首先,用户通过系统发起发布招聘信息的请求,企业接收到请求后,需准备并完善相关信息。随后,企业将完整的招聘信息提交至管理员进行审核。管理员在接收到招聘信息后,对其进行详细审核,包括信息的完整性、合规性等方面。若审核通过,管理员将通知企业,并将招聘信息正式发布至平台。整个招聘信息发布的核心流程包括用户请求发布、企业准备信息、管理员审核以及审核通过后发布四个主要环节。该流程确保了招聘信息的准确性和合法性,同时也保障了平台信息的高质量与可靠性。通过这一模块,企业能够高效地发布招聘信息,管理员能够有效监管,用户能够获取到真实可靠的招聘信息,从而实现平台资源的优化配置和信息的高效流转。

在面试安排管理页面中,用户可通过输入框填写面试时间、地点等基本信息,或选择已有项目进行关联。提交后,系统将自动处理并查询相关面试安排信息,最终在页面展示区显示面试的具体安排,包括时间、地点、参与人员等。用户可随时查看并确认面试安排,确保信息准确无误。界面设计简洁明了,操作流程清晰,便于用户快速上手。通过该功能,用户能够高效管理面试安排,减少人为错误,提高工作效率。系统自动处理查询功能,确保了数据的准确性和及时性,为面试安排提供了可靠的技术支持。本课题的研究成果,不仅提升了面试管理的自动化水平,也为企业人力资源管理提供了有力的技术保障。

本课题设计并实现了面试安排管理模块,该模块允许企业用户查看和管理面试安排信息。具体实现过程中,通过 /interview_schedule 映射的 schedule 方法来处理用户请求。企业控制器在接收到用户请求后,调用企业服务层进行处理。企业服务层进一步通过企业实体层查询面试安排表,以获取相关的面试安排信息。获取数据后,企业服务层将结果返回给企业控制器,最终由控制器将结果展示给用户。该模块的核心代码实现了企业控制器接收用户请求、调用服务层方法、服务层通过实体层查询面试安排表、获取数据后返回给控制器,以及控制器将结果展示给用户的全流程。通过这一系列操作,企业用户能够高效地查看和管理面试安排信息,提升了面试安排的便捷性和管理效率。本课题的设计和实现充分考虑了系统的可扩展性和易用性,为企业用户提供了良好的使用体验。

在信息可视化面板页面中,管理员可通过用户端发送请求以查看项目相关信息。管理员控制器在接收到请求后,调用信息可视化服务层以获取所需数据。服务层进一步访问实体层,通过查询数据库表提取相关信息,并将获取的数据返回给管理员控制器。随后,管理员控制器将数据传递至前端界面,最终在页面中展示详细的项目信息供用户查阅。本课题通过这一流程实现了管理员对项目信息的实时监控与管理,确保了数据的准确性与可视化的高效性。界面设计简洁直观,便于用户快速获取关键信息,从而提升了系统的可用性与用户体验。

信息可视化面板模块的设计旨在为管理员提供便捷的信息查看与管理功能。通过/view_information_panel路径映射的view方法,管理员控制器接收用户请求并调用信息可视化服务层进行处理。信息可视化服务层负责从信息可视化实体层获取数据,并进一步查询信息数据库表以提取所需信息。数据库返回数据后,信息可视化实体层将数据传递至服务层,服务层再将处理后的数据返回给管理员控制器。最终,管理员控制器将数据展示给用户,完成整个信息可视化的流程。该模块的核心代码实现了数据的高效传递与展示,确保了管理员能够实时获取并管理相关信息,提升了系统的可操作性与用户体验。通过分层架构的设计,信息可视化面板模块在功能实现与系统维护方面均表现出较高的灵活性与稳定性。

本课题设计的管理员控制器负责接收用户提交的求职建议请求,并将其传递至服务层进行具体处理。服务层对求职建议进行详细分析与操作,处理结果随后保存至实体层,并返回处理结果。管理员控制器将最终处理结果发送给用户,用户可在页面查看处理后的反馈信息。该流程确保了求职建议的及时处理与反馈,提升了系统的响应效率与用户体验。通过界面展示,用户能够直观地了解建议的处理状态与结果,增强了系统的透明性与用户满意度。整个处理流程体现了系统的高效性与可靠性,为求职建议的管理与反馈提供了全面的技术支持。

在求职建议与趋势模块中,用户可通过/submit_job_advice接口提交求职建议,该接口映射的submit方法负责接收用户输入数据。用户提交的建议数据首先传递至管理员控制器,随后由控制器转发至管理员服务层进行逻辑处理。管理员服务层对建议内容进行审核、分类及分析等操作,确保其符合系统规范与业务需求。处理完成后,管理员服务层将建议数据交由管理员实体层,最终持久化存储至数据库表中。整个处理流程完成后,管理员服务层将处理结果返回至管理员控制器,控制器再将结果封装为响应信息返回给用户,确保用户能够及时获取建议提交的处理状态。通过该流程,本课题实现了求职建议的高效处理与反馈,为后续求职趋势分析提供了数据支持。

本课题设计了一种基于Boss直聘平台的职位信息检索系统,该系统通过用户输入的关键词或选择的行业分类进行信息筛选,筛选结果在页面展示区呈现职位名称、公司信息和薪资范围等详细内容。用户点击具体职位后,可进一步查看职位详细信息及公司介绍。系统管理员负责接收用户请求,调用爬取服务获取Boss直聘的最新职位信息,并将这些信息存入数据库,以确保数据的实时性和准确性。最终,管理员将爬取结果返回给用户,用户可在页面中查看最新的职位信息。该系统通过高效的信息检索和数据管理,为用户提供了便捷的职位查询服务,满足了用户对实时职位信息的需求。

本课题设计并实现了BOSS直聘信息爬取模块,该模块通过/crawl_bosszhipin路径映射至crawl方法,用于处理用户请求并获取BOSS直聘平台的相关数据。当用户端发起请求后,管理员控制器接收并调用爬取服务层进行数据处理。爬取服务层负责从BOSS直聘平台获取所需信息,并将这些数据存储至数据库实体层。数据库在确认数据成功存储后,返回确认信号至爬取服务层。最终,管理员控制器将爬取结果返回给用户端,完成整个信息爬取流程。该流程确保了数据的实时性和准确性,为后续的数据分析和应用提供了可靠的基础。通过本课题的实施,能够有效提升BOSS直聘信息的管理效率,满足用户对数据获取的需求。

技术栈

本系统框架使用Scrapy.
系统设计支持以下技术栈
前端开发框架:vue.js
数据库: mysql 版本不限
后端语言框架 :python(django)–pycharm/vscode
数据库工具:Navicat/SQLyog等都可以
数据可视化技术:Echart
大数据框架:Hadoop

Scrapy是一个Python编写的强大,灵活的网络爬虫框架和数据提取工具。它使用异步I/O网络库Twisted进行高效的爬取,并将提取到的数据存储到多种格式中。然而,在需要大规模爬取复杂的网站时,单机爬虫速度会受到限制。为了解决这个问题,Scrapy提供了分布式爬虫系统
#协同过滤算法
协同过滤推荐技术一般采用最近邻技术,利用用户的历史喜好信息计算用户之间的距离,然后 利用目标用户的最近邻居用户对商品评价的加权评价值来预测目标用户对特定商品的喜好程度,系统从而根据这一喜好程度来对目标用户进行推荐。基于协同过滤的推荐系统可以说是从用户的角度来进行相应推荐的,而且是自动的即用户获得的推荐是系统从购买模式或浏览行为等隐式获得的,不需要用户努力地找到适合自己兴趣的推荐信息。

关键技术和使用的工具环境等的说明

MySQL是一种关系型数据库管理系统,是大部分程序员接触的第一款关系型数据库。它相对于其他数据库来说相当轻量级,而且更加灵活。在大量的web工程中,经常作为首选的数据库,因为其开源免费的特点被大量的开发人员所使用。而且在大数据背景下,其海量的集群更为web的高并发提供了良好的后盾。

虽然Spark同样是大数据的框架和计算模型,但其实它与hadoop是相辅相成的,而且可以灵活的部署在hadoop之上,共享hadoop的文件系统。并且在数据处理上更为高效和方便、灵活。在数据量越来越庞大的现在,基于内存的spark可以很快的得到处理的结果,甚至现在已经可以支持近实时的数据处理。使得大数据的价值更加凸显。

Hadoop是由Apache基金会开源的分布式的大数据基础系统。
用户可以在不知道分布式基础设施的细节的情况下开发分布式程序。可以利用无数台节点集群进行高速计算和文件的多副本容错存储。

ECharts是百度开源的一个数据可视化框架,是web端的js框架,可以很方便的进行搭建数据可视化前端界面。官网的文档尤其简洁,极易上手开发,使得海量数据处理完成后,可以方便高效快速的进行可视化处理,直接作用于决策。使得数据的价值得到了直观的展示和提升。目前支持多种图形的绘制。

解决的思路

该系统架构主要依托scrapy框架进行架构,后台采用python动态网页语言编写,使用scrapy框架技术从网站上爬取数据,采用java/python/php/nodejs部署系统环境,使用pyhcarm作为系统的开发平台,在数据库设计和管理上使用MySQL。在人机交互的过程中,客户端不直接与数据库交互,而是通过组件与中间层建立连接,再由中间层与数据库交互。通过设计良好的框架可以减轻重新建立解决复杂问题方案的负担和精力,并且它可以被扩展以进行内部的定制化,有强大的用户社区来支持它,所以框架通常能很好的解决一个问题。

爬虫核心代码展示

importscrapyimportpymysqlimportpymssqlfrom..itemsimportxiangmuItemimporttimeimportreimportrandomimportplatformimportjsonimportosfromurllib.parseimporturlparseimportrequestsimportemojiclassxiangmuSpider(scrapy.Spider):name='xiangmuSpider'spiderUrl='https://url网址'start_urls=spiderUrl.split(";")protocol=''hostname=''def__init__(self,*args,**kwargs):super().__init__(*args,**kwargs)# 列表解析defparse(self,response):_url=urlparse(self.spiderUrl)self.protocol=_url.scheme self.hostname=_url.netloc plat=platform.system().lower()ifplat=='windows_bak':passelifplat=='linux'orplat=='windows':connect=self.db_connect()cursor=connect.cursor()ifself.table_exists(cursor,'xiangmu')==1:cursor.close()connect.close()self.temp_data()returnlist=response.css('ul.subject-list li.subject-item')foriteminlist:fields=xiangmuItem()fields["laiyuan"]=self.remove_html(item.css('div.pic a.nbg::attr(href)').extract_first())iffields["laiyuan"].startswith('//'):fields["laiyuan"]=self.protocol+':'+fields["laiyuan"]eliffields["laiyuan"].startswith('/'):fields["laiyuan"]=self.protocol+'://'+self.hostname+fields["laiyuan"]fields["fengmian"]=self.remove_html(item.css('div.pic a.nbg img::attr(src)').extract_first())fields["xiaoshuoming"]=self.remove_html(item.css('div.info h2 a::attr(title)').extract_first())detailUrlRule=item.css('div.pic a.nbg::attr(href)').extract_first()ifself.protocolindetailUrlRule:passelifdetailUrlRule.startswith('//'):detailUrlRule=self.protocol+':'+detailUrlRuleelse:detailUrlRule=self.protocol+'://'+self.hostname+detailUrlRule fields["laiyuan"]=detailUrlRuleyieldscrapy.Request(url=detailUrlRule,meta={'fields':fields},callback=self.detail_parse)# 详情解析defdetail_parse(self,response):fields=response.meta['fields']try:if'(.*?)'in'''div#info span a::text''':fields["zuozhe"]=re.findall(r'''div#info span a::text''',response.text,re.S)[0].strip()else:if'zuozhe'!='xiangqing'and'zuozhe'!='detail'and'zuozhe'!='pinglun'and'zuozhe'!='zuofa':fields["zuozhe"]=self.remove_html(response.css('''div#info span a::text''').extract_first())else:fields["zuozhe"]=emoji.demojize(response.css('''div#info span a::text''').extract_first())except:pass# 去除多余html标签defremove_html(self,html):ifhtml==None:return''pattern=re.compile(r'<[^>]+>',re.S)returnpattern.sub('',html).strip()# 数据库连接defdb_connect(self):type=self.settings.get('TYPE','mysql')host=self.settings.get('HOST','localhost')port=int(self.settings.get('PORT',3306))user=self.settings.get('USER','root')password=self.settings.get('PASSWORD','123456')try:database=self.databaseNameexcept:database=self.settings.get('DATABASE','')iftype=='mysql':connect=pymysql.connect(host=host,port=port,db=database,user=user,passwd=password,charset='utf8')else:connect=pymssql.connect(host=host,user=user,password=password,database=database)returnconnect# 断表是否存在deftable_exists(self,cursor,table_name):cursor.execute("show tables;")tables=[cursor.fetchall()]table_list=re.findall('(\'.*?\')',str(tables))table_list=[re.sub("'",'',each)foreachintable_list]iftable_nameintable_list:return1else:return0

为什么选择我们

海量实战案例

所有实战项目源码均为博主收集和开发,亲测可用,质量保障,大家可以放心使用,当然也可根据需求定制开发。

自己的公众号(一点毕设)

源码及文档获取

需要成品或者定做开发,文章下方名片联系我即可~
大家点赞、收藏、关注、评论啦 、查看👇🏻获取联系方式👇🏻
精彩专栏推荐订阅:在下方专栏👇🏻
Java精品实战案例《200套》
微信小程序项目精品实战案例《200套》
Python项目精品实战案例《200套》
大数据项目精品实战案例《200套》

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/11 3:17:27

WebUI集成教程:将lora-scripts训练出的LoRA权重导入Stable Diffusion

WebUI集成教程&#xff1a;将lora-scripts训练出的LoRA权重导入Stable Diffusion 在AI图像生成领域&#xff0c;个性化风格定制正从“少数人的实验”走向“大众化创作”。越来越多的设计师、艺术家和独立开发者不再满足于使用通用模型生成千篇一律的画面&#xff0c;而是希望拥…

作者头像 李华
网站建设 2026/4/13 18:49:25

lora-scripts支持增量训练模式,快速迭代你的专属AI模型

LoRA-Scripts&#xff1a;用增量训练快速打造你的专属AI模型 在如今这个AI创作爆发的时代&#xff0c;越来越多的设计师、开发者甚至普通用户都希望能拥有一个“懂自己”的生成模型——无论是能画出个人艺术风格的图像&#xff0c;还是能写出符合企业语境的文案。但现实是&…

作者头像 李华
网站建设 2026/4/10 21:33:46

蓝易云 - Dockerfile制作镜像与搭建LAMP环境

下面是一份工程级、可直接落地的《Dockerfile 制作镜像与搭建 LAMP 环境》完整说明&#xff0c;逻辑从原理 → 实操 → 验证 → 规范逐层展开&#xff0c;适合生产与学习双场景使用。一、先把话说透&#xff1a;Docker LAMP 的正确认知 &#x1f9e0;LAMP Linux Apache MyS…

作者头像 李华
网站建设 2026/4/13 11:43:44

分布式环境下任务重复/丢失频发?C++级解决方案一次性讲透

第一章&#xff1a;分布式环境下任务分配的挑战与C应对策略在构建高性能分布式系统时&#xff0c;任务分配机制是决定整体效率与可扩展性的核心环节。随着节点数量增加和网络拓扑复杂化&#xff0c;传统集中式调度方式难以满足低延迟、高容错的需求。C凭借其高效的内存管理与底…

作者头像 李华
网站建设 2026/4/12 9:39:50

C++26反射系统揭秘:如何实现零成本类型检查?

第一章&#xff1a;C26反射系统的核心理念C26引入的反射系统标志着语言在元编程能力上的重大飞跃。其核心目标是让程序能够在编译期直接查询和操作类型、成员变量、函数等程序结构信息&#xff0c;而无需依赖宏或模板元编程等间接手段。编译期自省能力 C26反射允许开发者在编译…

作者头像 李华
网站建设 2026/4/13 19:28:38

小白也能上手:使用lora-scripts进行图文生成模型定制化训练

小白也能上手&#xff1a;使用lora-scripts进行图文生成模型定制化训练 在AI创作工具日益普及的今天&#xff0c;越来越多设计师、内容创作者甚至普通用户都希望用自己的风格“教会”AI画画——比如让模型学会模仿某位画家的笔触&#xff0c;或者准确还原企业吉祥物的形象。但问…

作者头像 李华