Skip to content

就业推荐系统 spark ml 推荐系统 协同过滤 招聘平台 爬虫 毕业设计 大数据技术 招聘信息爬虫 智联招聘

License

Notifications You must be signed in to change notification settings

Cmnnon/Employment_referral

 
 

Repository files navigation

[toc]

JobFree

展示

https://www.fiang.fun

一、声明

本程序仅供学习和演示目的,不用于任何商业用途,作者对程序的使用和任何可能的损失概不负责,在使用本程序前,请确保您理解风险,并根据自己的需要进行适当的测试和验证,使用本程序即表示您接受了这个免责声明。

二、联系方式

QQ: 854771076 一键三连领取全量数据和原始数据

三、支持

pay

四、项目架构

4.1 总架构图

系统架构

4.2 数仓架构

系统架构

4.3 功能设计

系统架构

4.4 ER图

系统架构

五、项目部署

5.1 docker-compose部署

5.1.1 docker安装

  1. 安装 yum-utils

    sudo yum install -y yum-utils device-mapper-persistent-data lvm
  2. 添加 Docker 的 Yum 源

    sudo yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
  3. 更新 Yum 包的索引

    sudo yum makecache fast
  4. 安装最新版本的 Docker

    sudo yum install docker-ce
  5. 启动 Docker

    sudo systemctl start docker
    sudo systemctl enable docker
  6. 查看版本

    docker version

5.1.2 docker-compose安装

  1. yum源安装

    yum -y install docker-compose
  2. 官网安装

    sudo curl -L "https://github.com/docker/compose/releases/download/1.27.4/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
    sudo chmod +x /usr/local/bin/docker-compose
    
  3. 查看版本

    docker-compose --version

5.1.3 项目部署

# docker-compose 创建并启动相应服务
cd 项目目录/
docker-compose up -d

5.1.4 进入系统

将数据库数据导入数据库后打开连接 http://虚拟机ip 无数据联系作者

5.2 环境初始化

5.2.1 快捷脚本(Windows)

  • 下载Anaconda
  • 运行env-init.bat
  • 注意控制台信息,需要输入两个y

5.2.2 正常流程

  • 下载Anaconda

  • 创建虚拟环境

    • 爬虫环境
    conda create -n jobfreeSpider python=3.8
    
    pip install -r .\spiderProject\requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/
    • Web环境
    conda create -n jobfree python=3.8
    
    pip install -r .\web-server\requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/
  • 下载MySQL和Redis数据库

5.3 项目启动

5.3.1 爬虫程序

windows一键启动

双击spder-start.bat

正常启动
  • 切换至 jobfreeSpider环境

    conda activate jobfreeSpider
  • 启动scrapyd进程

    scrapyd
    # 控制台输入
    # windows输入 scrapyd 后收后台挂起,新建cmd执行后续
    # Linux输入nohup scrapyd > scrapyd.log & + ctrl+D挂起
  • 启动Gerapy

    gerapy runserver 0.0.0.0:5000
    # 控制台输入
    # windows输入 gerapy runserver 0.0.0.0:5000 后收后台挂起
    # Linux输入nohup gerapy runserver 0.0.0.0:5000 > gerapy.log & + ctrl+D挂起
  • 浏览器打开http://127.0.0.1进入Gerapy,用户名密码admin/admin

  • 点击项目管理-编辑

    1

  • 找到settings.py,修改redis和mysql为自己的配置,不用建表,自动建

    2

  • 修改完不用保存(自动保存),点击项目管理-部署

  • 点击重新打包后,再点击部署即可(如果报错99%是你的数据库配置有问题,因为部署时会执行检查代码,连接不上就报错)

    4

  • 如果部署失败,查看scrapyd进程/日志

5.3.2 Web程序

配置settings.py
# web-server\DRF\settings.py
# SMTP邮箱设置,怎么申请请自行网上学习
EMAIL_BACKEND = 'django.core.mail.backends.smtp.EmailBackend'
EMAIL_HOST = ''  # 邮箱SMTP服务器地址
EMAIL_HOST_USER = ''  # 邮箱用户名
EMAIL_HOST_PASSWORD = ''  # 邮箱密码
# EMAIL_USE_TLS = True  # 使用TLS加密
DEFAULT_FROM_EMAIL = ''  # 默认发件人邮箱
#redis
REDIS_HOST='127.0.0.1'
REDIS_PORT=6379
REDIS_PSW=''
REDIS_DB=1
#MySQL
DATABASES = {
    'default': {
        'ENGINE': 'django.db.backends.mysql',
        'NAME': 'jobfree',  
        'USER': 'root',  
        'PASSWORD': 'root',  
        'HOST': '127.0.0.1',
        'PORT': 3306,
        'OPTIONS': {'charset': 'utf8mb4'},
    },

}
迁移数据库
conda activate jobfree
cd web-server
python manage.py migrate
导入测试数据

ETL\test_data.sql,然后完成ETL模块再进行下一步运行

windows一键启动

双击web-start.bat

正常启动
cd web-server
conda activate jobfree
python manage.py runserver

5.3.3 ETL模块

环境搭建

有集群则跳过

Windows下使用hadoop+hive+sparkSQL-CSDN博客

初始化hive数据库

ETL\init.sql

安装python库
pip install findspark
执行ETL脚本

ETL\xxx目录下的py文件

模型训练

model\ALS.py

About

就业推荐系统 spark ml 推荐系统 协同过滤 招聘平台 爬虫 毕业设计 大数据技术 招聘信息爬虫 智联招聘

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • JavaScript 31.0%
  • Jupyter Notebook 26.9%
  • Python 12.4%
  • CSS 10.3%
  • Less 7.8%
  • SCSS 7.3%
  • Other 4.3%