我的博客¶
Mac破解软件下载站点
| 网站 | 描述 |
|---|---|
| 麦氪派 | |
| 佛系软件 | 该网站破解脚本会破坏其他软件的正常运行,不推荐使用 |
| 马可波罗 | |
| 潘多拉盒子 | |
| AppStorrent | |
| RuTracker | 俄罗斯最大的软件破解软件,也包含MAC相关软件 |
| Macked App | 登录后下载 |
| CMacked App | MAC破解软件 |
| XClient | MAC破解软件 |
| XMac | 无须登录,软件版本相对较新,目前无法登录上。 |
| MacDo | 登录后下载 |
| MacWk | 无需登录 |
| XMac.cc | 需登录后下载 |
轻量级模型 Qwen3-0.6B 有何实际用途
Qwen3-0.6B 是阿里巴巴通义千问团队于2025年4月发布的开源大型语言模型系列中的最小版本,拥有 6 亿参数。在大型语言模型(LLM)日益庞大、动辄数十亿参数的今天,Qwen3-0.6B 这样仅有 6 亿参数的小模型是否还有存在的意义?它是否只是技术展示的「玩具」,还是在实际应用中有其独特的价值?
FunASR实时语音识别接口
原文地址:
1. 安装Docker
这里使用阿里官方打包好的docker镜像,所以我们先需要安装docker,如果你不想要使用docker方式安装,你也可以自己源码编译安装,不过推荐在Ubuntu系统中源码编译安装,如果你使用CentOS进行源码编译安装,有可能会编译失败。
yum -y install gcc g++ yum-utils
# 配置阿里云的 Docker Hub
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
# 安装 Docker CE
yum -y install docker-ce docker-ce-cli containerd.io
# 启动 Docker
systemctl start docker
# 设置开机自启
systemctl enable docker
# 查看 Docker 运行状态
systemctl status docker
使用 Python 实现 Vintage 账龄分析
信贷资产质量监控中,Vintage 分析犹如风险管理的「体检表和时光望远镜」,能够透过时间维度观察不同放款批次的生命周期表现(成熟期、变化规律等)。本文力求以通俗简洁的文风来介绍 Vintage 分析的概念、计算逻辑和业务应用,希望能对大家有所帮助。
Git 常用操参考
1. 删除大文件
不知道你有没有遇到这样一种情况,一些大文件我们未在 .gitignore 文件声明,导致这些大文件和其他一起被误添加且提交,但更改还未被提交到远程仓库中。显然,我们不希望提交这些文件到远程仓库中,且其他文件内容还能保持当前最新的状态,可以执行如下命令:
执行完成后,在 .gitignore 文件中先添加好忽略的内容 ,再通过 git add、git commit 命令重新操作。
谨慎使用 --hard 参数
请谨慎使用 --hard 参数,git reset --hard HEAD^1 虽然可以恢复到文件添加前的状态,但需要注意的是,本地文件变更内容也会清除掉,这意味着如果你做了大量的内容变更将会丢失。
2. 强制提交变更
3. 强制拉取最新内容
最简单的大数据开发环境搭建
作为一名程序员,很多时候我们希望在本地能搭建一套大数据环境作为测试开发环境,以便快速地开发一些库和接口服务,能无缝地切换到生产环境上去。本篇文章主介绍如何通过 Docker 镜像快速高效地创建一个大数据开发环境。
参考文档
1. Apache Impala
在 gethue 介绍了如何集成一个 Kudu Impala 服务,我们按照文档介绍来创建一个容器。
docker run -d --name kudu-impala -p 0.0.0.0:21000:21000 -p 0.0.0.0:21050:21050 -p 0.0.0.0:25000:25000 -p 0.0.0.0:25010:25010 -p 0.0.0.0:25020:25020 --memory=4096m apache/kudu:impala-latest impala
进入容器内 /opt 目录下,你会发现该镜像已经集成了 Hadoop 和 Hive 服务。如果后续你会使用到 WebHDFS 和 Hive 接口服务,这里建议将这些端口 8020、9000、9870、9864、10000 也先暴露出来,后面我们配置会用到相关接口,建议看完全部文档后再操作。
1.1 Windows宿主机对外开放接口
这里我们使用闲置的 Windows 电脑作为容器的宿主机,开启服务后在局域网内可供其他机器访问。实践过程中有时间会出现这样的一个问题,通过 Python 连接 localhost 是正常的,但换成 127.0.0.1 或者实际 IP4 地址,都无法正确连接(尤其是在配置其他服务后重启服务的时候)。网上有一些解决办法是采用端口的转发的操作,但验证下来此方法无效,且对删除容器重新创建也会有影响,非常不建议这么操作。
Window端口转发与重置
netsh interface portproxy add v4tov4 listenport=21050 listenaddress=0.0.0.0 connectport=21050 connectaddress=localhost
2. Apache Hadoop
进入 kudu-impala 容器内你会发现 /opt 目录下已经有 hadoop 和 hive 的目录,但是直接运行 hadoop version 命令会提示错误信息,告诉我们 JAVA_HOME 环境变量没有设置:
WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete.
ERROR: JAVA_HOME is not set and could not be found.
使用 java -version 能看到当前容器中已经安装了 JDK 服务,下面先找一下 JDK 的安装目录:
配置环境变量(无效)
HADOOP_CONF_DIR 目录比较简单,通常是 Hadoop 安装目录下的 etc/hadoop 目录,接下来需要设置相关环境变量:
export JAVA_HOME="/usr/lib/jvm/java-8-openjdk-amd64/jre"
export HADOOP_CONF_DIR="/opt/hadoop/etc/hadoop"
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_CONF_DIR
尝试此操作后,发现在 /etc/profile、~/.bashrc、~/.zshrc 这些文件中加入上述内容,配置都没有生效,此方法不适用。
这里我们先删除容器,通过如下命令重新创建一个容器(区别在于通过 --env 直接设置了环境变量),容器内再次执行 hadoop version 命令就正常了。
docker run -d --name kudu-impala -p 0.0.0.0:21000:21000 -p 0.0.0.0:21050:21050 -p 0.0.0.0:25000:25000 -p 0.0.0.0:25010:25010 -p 0.0.0.0:25020:25020 --env "JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre" --env "HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop" --memory=4096m apache/kudu:impala-latest impala
关于 Hadoop 接口应用,目前我用到最多的通过 WebHDFS 服务上传下载 HDFS 文件,并结合 Hive 和 Impala 建立外部分区表。这里以 Hadoop 3.x 为例,说明下 WebHDFS 服务开启操作。
- 需要设置下 DataNode 的 hostname,否则会报错
Failed to resolve 'f38ea60d2b3a' ([Errno 11001] getaddrinfo failed)"))
接下来,我们需要先使用 hdfs name -format 格式化 NameNode,然后启动 NameNode 和 DataNode 服务后,就可以通过 WebHDFS 服务访问 HDFS 了:
# 关闭将 start 修改为 stop 即可
$ hdfs --daemon start namenode
$ hdfs --daemon start datanode
PyHDFS 无法上传文件
如果使用 PyHDFS 可以创建和删除文件夹,但无法将本地文件上传到 HDFS,报错信息为 HdfsIOException: Failed to find datanode, suggest to check cluster health. excludeDatanodes=null。
解决办法:上述问题通常是 HDFS NameNode 多次格式化导致,先删除 /tmp/hadoop-impala/dfs/data 目录所有文件,再重新格式化 NameNode。
该容器默认用户为 impala,如果后面需要使用到 Hue 的话,这里我们先需要先创建对应的 HDFS 目录:
# 以下不操作,会出现 User: impala is not allowed to impersonate root 报错信息
$ hdfs dfs -mkdir /tmp
$ hdfs dfs -mkdir -p /user/impala
如果你之前没有将 8020、9000、9870、9864、10000 这些端口暴露出来,那么需要删除容器重新创建,且再走一遍文档的操作:
docker run -d --name kudu-impala -p 0.0.0.0:21000:21000 -p 0.0.0.0:21050:21050 -p 0.0.0.0:25000:25000 -p 0.0.0.0:25010:25010 -p 0.0.0.0:25020:25020 -p 0.0.0.0:8020:8020 -p 0.0.0.0:9000:9000 -p 0.0.0.0:9870:9870 -p 0.0.0.0:9864:9864 -p 0.0.0.0:10000:10000 --env "JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre" --env "HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop" --memory=4096m apache/kudu:impala-latest impala
如果希望容器启动时默认开启 WebHDFS 服务,在 /impala-entrypoint.sh 文件中添加如下内容,其中 start_hive_hs2 为后面开启 Hive 连接端口所用,这里先写上相关内容:
3. Apache Hive
开启 Hive Metastore 需要先设置好 JAVA_HOME 以及 HADOOP_CONF_DIR 环境变量。在创建容器时就将 10000 接口暴露出来:
docker run -d --name kudu-impala -p 0.0.0.0:21000:21000 -p 0.0.0.0:21050:21050 -p 0.0.0.0:25000:25000 -p 0.0.0.0:25010:25010 -p 0.0.0.0:25020:25020 -p 0.0.0.0:8020:8020 -p 0.0.0.0:9000:9000 -p 0.0.0.0:9870:9870 -p 0.0.0.0:9864:9864 -p 0.0.0.0:10000:10000 --env "JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre" --env "HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop" --memory=4096m apache/kudu:impala-latest impala
接下来执行以下命令开启 HiveServer2 服务,需要注意的是,要求 HDFS 的 NameNode 和 Datanode 服务需要先启动:
当然我们可以直接在 /impala-entrypoint.sh 进行设置,不必每次进入容器手动开启:
4. Hue
我们可以通过 Hue 的镜像快速创建容器,
4.1 配置 Impala 服务
| /usr/share/hue/desktop/conf/hue.ini | |
|---|---|
4.2 配置 WebHDFS 服务
| /usr/share/hue/desktop/conf/hue.ini | |
|---|---|
4.3 配置 Hive 服务
Thrift version configured by property thrift_version might be too high. Request failed with "Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, username:hue, configuration:{hive.server2.proxy.user=yumingmin})" (code OPEN_SESSION): None
打开 Hue 的 Hive Editor,出现如上错误,需要在 hue.ini 文件中修改 thrift_version=7。
| /usr/share/hue/desktop/conf/hue.ini | |
|---|---|
5. 参考文档
- Windows宿主机无法通过IP访问docker桌面里的容器: https://blog.csdn.net/qq_41951305/article/details/125971902