技术池(jishuchi.com) 本次搜索耗时 7.935 秒,为您找到 826 个相关结果.
  • 序言

    16508 2019-02-27 《Go语言高级编程》
    序言 致谢 序言 2009年11月,Google发布了Go语言,在世界范围内引发了轰动。2015年和2016年中国区的Go语言大会分别在上海和北京召开,来自Go语言团队的开发人员均作了相关的报告。纵观这几年来的发展趋势,Go语言已经成为云计算、云存储时代最重要的基础编程语言。 中国的Go语言社区是全球最大的Go语言社区,我们不仅仅从一开始就始终紧...
  • 一体化部署文档(基于Ubuntu 18.04)

    Ubuntu 18.04 安装文档 说明 环境 开始安装 一. 准备 Python3 和 Python 虚拟环境 1.1 安装依赖包 1.2 安装 Redis, Jumpserver 使用 Redis 做 cache 和 celery broke 1.3 安装 MySQL 1.4 创建数据库 Jumpserver 并授权 1.5 安装 Pytho...
  • 前后端分离开发

    前后端分离开发 返回JSON格式的数据 使用Vue.js渲染页面 前后端分离开发 在传统的Web应用开发中,大多数的程序员会将浏览器作为前后端的分界线。将浏览器中为用户进行页面展示的部分称之为前端,而将运行在服务器,为前端提供业务逻辑和数据准备的所有代码统称为后端。所谓前后端分离的开发,就是前后端工程师约定好数据交互接口,并行的进行开发和测试,后...
  • 3.10 补充说明

    15531 2019-02-27 《Go语言高级编程》
    3.10 补充说明 3.10 补充说明 如果是纯粹学习汇编语言,则可以从《深入理解程序设计:使用Linux汇编语言》开始,该书讲述了如何以C语言的思维变现汇编程序。如果是学习X86汇编,则可以从《汇编语言:基于x86处理器》一开始,然后再结合《现代x86汇编语言程序设计》学习AVX等高级汇编指令的使用。 Go汇编语言的官方文档非常匮乏。其中“A Q...
  • 数据采集和解析

    数据采集和解析 HTML页面分析 使用requests获取页面 四种采集方式 四种采集方式的比较 使用正则表达式 使用XPath和Lxml BeautifulSoup的使用 PyQuery的使用 实例 - 获取知乎发现上的问题链接 数据采集和解析 通过《网络爬虫和相关工具》 一文,我们已经了解到了开发一个爬虫需要做的工作以及一些常见...
  • 1.8 补充说明

    13673 2019-02-27 《Go语言高级编程》
    1.8 补充说明 1.8 补充说明 本书定位是Go语言进阶图书,因此读者需要有一定的Go语言基础。如果对Go语言不太了解,作者推荐通过以下资料开始学习Go语言。首先是安装Go语言环境,然后通过go tool tour 命令打开“A Tour of Go”教程学习。在学习“A Tour of Go”教程的同时,可以阅读Go语言官方团队出版的《The G...
  • 第十章 Persistent

    13442 2020-10-28 《Yesod Web 中文文档》
    Persistent 概要 解决边界问题 类型 代码生成(Code Generation) PersistStore 迁移 唯一性 查询 用ID查询 通过唯一性约束查询 选择函数 选择选项(SelectOpt) 操作(Manipulation) 插入 更新 删除 属性 关系 深入理解类型 更复杂、更通用 自定义字段 ...
  • 第二章 Haskell

    13069 2020-10-28 《Yesod Web 中文文档》
    Haskell 术语 工具 语言编译指示(Language Pragmas) 重载字符串(Overloaded Strings) 类型族(Type Families) Haskell模板(Template Haskell) 准引用(QuasiQuotes) 小结 Haskell 为了使用Yesod,你至少需要知道一些Haskell基础...
  • 第四章 运算符

    第四章 运算符 开始使用 优先级 赋值 方法调用中的别名现象 算术运算符 一元加减运算符 递增和递减 关系运算符 测试对象等价 逻辑运算符 短路 字面值常量 下划线 指数计数法 位运算符 移位运算符 三元运算符 字符串运算符 常见陷阱 类型转换 截断和舍入 类型提升 Java没有sizeof 运算符总结 本章小...
  • Scrapy入门

    Scrapy爬虫框架入门 Scrapy概述 组件 数据处理流程 安装和使用Scrapy -- coding: utf-8 -- Define here the models for your scraped items See documentation in: https://doc.scrapy.org/en/latest/topics/...