技术池(jishuchi.com) 本次搜索耗时 2.665 秒,为您找到 461 个相关结果.
  • 5.2. 递归

    19576 2019-03-06 《Go语言圣经》
    5.2. 递归 5.2. 递归 函数可以是递归的,这意味着函数可以直接或间接的调用自身。对许多问题而言,递归是一种强有力的技术,例如处理递归的数据结构。在4.4节,我们通过遍历二叉树来实现简单的插入排序,在本章节,我们再次使用它来处理HTML文件。 下文的示例代码使用了非标准包 golang.org/x/net/html ,解析HTML。golan...
  • 1.5 面向并发的内存模型

    19020 2019-02-27 《Go语言高级编程》
    1.5 面向并发的内存模型 1.5.1 Goroutine和系统线程 1.5.2 原子操作 1.5.3 顺序一致性内存模型 1.5.4 初始化顺序 1.5.5 Goroutine的创建 1.5.6 基于Channel的通信 1.5.7 不靠谱的同步 1.5 面向并发的内存模型 在早期,CPU都是以单核的形式顺序执行机器指令。Go语言的祖...
  • 1.3. 查找重复的行

    18723 2019-03-06 《Go语言圣经》
    1.3. 查找重复的行 1.3. 查找重复的行 对文件做拷贝、打印、搜索、排序、统计或类似事情的程序都有一个差不多的程序结构:一个处理输入的循环,在每个元素上执行计算处理,在处理的同时或最后产生输出。我们会展示一个名为dup 的程序的三个版本;灵感来自于Unix的uniq 命令,其寻找相邻的重复行。该程序使用的结构和包是个参考范例,可以方便地修改。 ...
  • 数据库

    18495 2020-09-21 《数据结构问题》
    数据库 MySQL的多存储引擎架构 MySQL的数据类型 数据库的事务 数据库ACID 数据库中的范式 并发一致性问题 事务隔离级别 存储引擎 1. MyISAM 2. InnoDB 3. CSV 4. Archive 5. Memory 6. Federated MySQL的索引 索引使用的场景 索引分类 B Tree 原理...
  • 第十章 Persistent

    18391 2020-10-28 《Yesod Web 中文文档》
    Persistent 概要 解决边界问题 类型 代码生成(Code Generation) PersistStore 迁移 唯一性 查询 用ID查询 通过唯一性约束查询 选择函数 选择选项(SelectOpt) 操作(Manipulation) 插入 更新 删除 属性 关系 深入理解类型 更复杂、更通用 自定义字段 ...
  • 24 协议

    24 协议 bluray cache concat crypto data file ftp hls http HTTP Cookie Icecast mmst mmsh md5 pipe rtmp rtmpe rtmps rtmpt rtmpte rtmpts libsmbclient libssh librt...
  • 第二十四章 并发和多核编程

    第 24 章:并发和多核编程 定义并发和并行 用线程进行并发编程 线程的不确定性 隐藏延迟 线程间的简单通信 主线程等待其他线程 安全的修改 MVar 安全资源管理:一个相对简单的好主意。 查看线程状态 编写更紧凑的代码 使用频道通信 注意事项 MVar 和 Chan 是非严格的 Chan 是无边界的 共享状态的并发仍不容易 死锁...
  • 深入模型

    深入模型 配置关系型数据库MySQL 利用Django后台管理模型 使用ORM完成模型的CRUD操作 新增 更新 查询 删除 Django模型最佳实践 模型定义参考 字段 字段属性 模型元数据选项 查询参考 深入模型 在上一个章节中,我们提到了Django是基于MVC架构的Web框架,MVC架构追求的是“模型”和“视图”的解...
  • 架构

    16727 2021-01-07 《Composer 中文文档》
    composer.json 架构 JSON schema Root 包 属性 包名 name 描述 description 版本 version 安装类型 type 关键字 keywords 项目主页 homepage 版本发布时间 time 许可协议 license 作者 authors 支持 support Package lin...
  • Scrapy入门

    Scrapy爬虫框架入门 Scrapy概述 组件 数据处理流程 安装和使用Scrapy -- coding: utf-8 -- Define here the models for your scraped items See documentation in: https://doc.scrapy.org/en/latest/topics/...