跳转至

我的博客

Mac破解软件下载站点

网站 描述
麦氪派
佛系软件 该网站破解脚本会破坏其他软件的正常运行,不推荐使用 ⚠
马可波罗
潘多拉盒子
AppStorrent
RuTracker 俄罗斯最大的软件破解软件,也包含MAC相关软件
Macked App 登录后下载
CMacked App MAC破解软件
XClient MAC破解软件
XMac 无须登录,软件版本相对较新,目前无法登录上。
MacDo 登录后下载
MacWk 无需登录
XMac.cc 需登录后下载

轻量级模型 Qwen3-0.6B 有何实际用途

原文地址:https://mp.weixin.qq.com/s/0NwNVgTTd-wmF3ba4DHWKA

Qwen3-0.6B 是阿里巴巴通义千问团队于2025年4月发布的开源大型语言模型系列中的最小版本,拥有 6 亿参数。在大型语言模型(LLM)日益庞大、动辄数十亿参数的今天,Qwen3-0.6B 这样仅有 6 亿参数的小模型是否还有存在的意义?它是否只是技术展示的「玩具」,还是在实际应用中有其独特的价值?

FunASR实时语音识别接口

原文地址:

1. 安装Docker

这里使用阿里官方打包好的docker镜像,所以我们先需要安装docker,如果你不想要使用docker方式安装,你也可以自己源码编译安装,不过推荐在Ubuntu系统中源码编译安装,如果你使用CentOS进行源码编译安装,有可能会编译失败。

yum -y install gcc g++ yum-utils
# 配置阿里云的 Docker Hub
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
# 安装 Docker CE
yum -y install docker-ce docker-ce-cli containerd.io 
# 启动 Docker
systemctl start docker
# 设置开机自启
systemctl enable docker
# 查看 Docker 运行状态
systemctl status docker

使用 Python 实现 Vintage 账龄分析

原文地址:https://mp.weixin.qq.com/s/hKjESyi-bu-IR8x49o3m4g

信贷资产质量监控中,Vintage 分析犹如风险管理的「体检表和时光望远镜」,能够透过时间维度观察不同放款批次的生命周期表现(成熟期、变化规律等)。本文力求以通俗简洁的文风来介绍 Vintage 分析的概念、计算逻辑和业务应用,希望能对大家有所帮助。

Git 常用操参考

1. 删除大文件

不知道你有没有遇到这样一种情况,一些大文件我们未在 .gitignore 文件声明,导致这些大文件和其他一起被误添加且提交,但更改还未被提交到远程仓库中。显然,我们不希望提交这些文件到远程仓库中,且其他文件内容还能保持当前最新的状态,可以执行如下命令:

git reset --mixed HEAD^1

执行完成后,在 .gitignore 文件中先添加好忽略的内容 ,再通过 git addgit commit 命令重新操作。

谨慎使用 --hard 参数

请谨慎使用 --hard 参数,git reset --hard HEAD^1 虽然可以恢复到文件添加前的状态,但需要注意的是,本地文件变更内容也会清除掉,这意味着如果你做了大量的内容变更将会丢失。

2. 强制提交变更

3. 强制拉取最新内容

最简单的大数据开发环境搭建

作为一名程序员,很多时候我们希望在本地能搭建一套大数据环境作为测试开发环境,以便快速地开发一些库和接口服务,能无缝地切换到生产环境上去。本篇文章主介绍如何通过 Docker 镜像快速高效地创建一个大数据开发环境。

1. Apache Impala

gethue 介绍了如何集成一个 Kudu Impala 服务,我们按照文档介绍来创建一个容器。

docker run -d --name kudu-impala -p 0.0.0.0:21000:21000 -p 0.0.0.0:21050:21050 -p 0.0.0.0:25000:25000 -p 0.0.0.0:25010:25010 -p 0.0.0.0:25020:25020 --memory=4096m apache/kudu:impala-latest impala

进入容器内 /opt 目录下,你会发现该镜像已经集成了 Hadoop 和 Hive 服务。如果后续你会使用到 WebHDFS 和 Hive 接口服务,这里建议将这些端口 8020、9000、9870、9864、10000 也先暴露出来,后面我们配置会用到相关接口,建议看完全部文档后再操作。

1.1 Windows宿主机对外开放接口

这里我们使用闲置的 Windows 电脑作为容器的宿主机,开启服务后在局域网内可供其他机器访问。实践过程中有时间会出现这样的一个问题,通过 Python 连接 localhost 是正常的,但换成 127.0.0.1 或者实际 IP4 地址,都无法正确连接(尤其是在配置其他服务后重启服务的时候)。网上有一些解决办法是采用端口的转发的操作,但验证下来此方法无效,且对删除容器重新创建也会有影响,非常不建议这么操作。

Window端口转发与重置
netsh interface portproxy add v4tov4 listenport=21050 listenaddress=0.0.0.0 connectport=21050 connectaddress=localhost
netsh interface portproxy show all
netsh interface portproxy reset

2. Apache Hadoop

进入 kudu-impala 容器内你会发现 /opt 目录下已经有 hadoop 和 hive 的目录,但是直接运行 hadoop version 命令会提示错误信息,告诉我们 JAVA_HOME 环境变量没有设置:

WARNING: log4j.properties is not found. HADOOP_CONF_DIR may be incomplete.
ERROR: JAVA_HOME is not set and could not be found.

使用 java -version 能看到当前容器中已经安装了 JDK 服务,下面先找一下 JDK 的安装目录:

$ which java
/usr/bin/java

$ ls -la /usr/bin |grep java
lrwxrwxrwx root root    22 B  Fri May  1 18:19:05 2020 java  /etc/alternatives/java
lrwxrwxrwx root root    23 B  Fri May  1 18:19:06 2020 javac  /etc/alternatives/javac
lrwxrwxrwx root root    25 B  Fri May  1 18:19:06 2020 javadoc  /etc/alternatives/javadoc
lrwxrwxrwx root root    23 B  Fri May  1 18:19:06 2020 javah  /etc/alternatives/javah
lrwxrwxrwx root root    23 B  Fri May  1 18:19:06 2020 javap  /etc/alternatives/javap

$ ls -la /etc/alternatives |grep java
lrwxrwxrwx root root  46 B Fri May  1 18:19:05 2020 java  /usr/lib/jvm/java-8-openjdk-amd64/jre/bin/java
lrwxrwxrwx root root  56 B Fri May  1 18:19:05 2020 java.1.gz  /usr/lib/jvm/java-8-openjdk-amd64/jre/man/man1/java.1.gz
lrwxrwxrwx root root  43 B Fri May  1 18:19:06 2020 javac  /usr/lib/jvm/java-8-openjdk-amd64/bin/javac
lrwxrwxrwx root root  53 B Fri May  1 18:19:06 2020 javac.1.gz  /usr/lib/jvm/java-8-openjdk-amd64/man/man1/javac.1.gz
lrwxrwxrwx root root  45 B Fri May  1 18:19:06 2020 javadoc  /usr/lib/jvm/java-8-openjdk-amd64/bin/javadoc
配置环境变量(无效)

HADOOP_CONF_DIR 目录比较简单,通常是 Hadoop 安装目录下的 etc/hadoop 目录,接下来需要设置相关环境变量:

export JAVA_HOME="/usr/lib/jvm/java-8-openjdk-amd64/jre"
export HADOOP_CONF_DIR="/opt/hadoop/etc/hadoop"
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_CONF_DIR

尝试此操作后,发现在 /etc/profile~/.bashrc~/.zshrc 这些文件中加入上述内容,配置都没有生效,此方法不适用

这里我们先删除容器,通过如下命令重新创建一个容器(区别在于通过 --env 直接设置了环境变量),容器内再次执行 hadoop version 命令就正常了。

docker run -d --name kudu-impala -p 0.0.0.0:21000:21000 -p 0.0.0.0:21050:21050 -p 0.0.0.0:25000:25000 -p 0.0.0.0:25010:25010 -p 0.0.0.0:25020:25020 --env "JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre" --env "HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop" --memory=4096m apache/kudu:impala-latest impala

关于 Hadoop 接口应用,目前我用到最多的通过 WebHDFS 服务上传下载 HDFS 文件,并结合 Hive 和 Impala 建立外部分区表。这里以 Hadoop 3.x 为例,说明下 WebHDFS 服务开启操作。

<configuration>
  <property>
    <name>fs.defaultFS</name>
    <!-- 替换为你的NameNode主机名或IP,例如我的 kudu-impala 的 IP 为 172.17.0.2 -->
    <value>hdfs://172.17.0.2:9000</value>  
  </property>
  <!-- 不添加的话,会导致无法提交文件到 HDFS 上 -->
  <property>
    <name>dfs.client.use.datanode.hostname</name>
    <value>true</value>
  </property>
  <property>
    <name>hadoop.proxyuser.root.hosts</name>
    <value>*</value>  <!-- 允许所有主机访问 -->
  </property>
  <property>
    <name>hadoop.proxyuser.root.groups</name>
    <value>*</value>  <!-- 允许所有用户组 -->
  </property>
  <property>
    <name>hadoop.proxyuser.impala.hosts</name>
    <value>*</value>  <!-- 允许所有主机访问 -->
  </property>
  <property>
    <name>hadoop.proxyuser.impala.groups</name>
    <value>*</value>  <!-- 允许所有用户组 -->
  </property>
</configuration>
<configuration>
  <property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
  </property>
  <!-- NameNode HTTP 地址(Hadoop 3.x 默认端口:9870) -->
  <property>
    <name>dfs.namenode.http-address</name>
    <value>0.0.0.0:9870</value>
  </property>
  <!-- DataNode HTTP 地址(Hadoop 3.x 默认端口:9864) -->
  <property>
    <name>dfs.datanode.http.address</name>
    <value>0.0.0.0:9864</value>
  </property>
  <!-- 不添加的会导致无法提交文件到 hdfs 上 -->
  <property>
    <name>dfs.datanode.hostname</name> 
    <!-- 填写 Windows 宿主机的 IP 地址 (1) -->
    <value>10.166.99.61</value>
  </property>
</configuration>
  1. 需要设置下 DataNode 的 hostname,否则会报错 Failed to resolve 'f38ea60d2b3a' ([Errno 11001] getaddrinfo failed)"))

接下来,我们需要先使用 hdfs name -format 格式化 NameNode,然后启动 NameNode 和 DataNode 服务后,就可以通过 WebHDFS 服务访问 HDFS 了:

启动 NameNode 和 DataNode
# 关闭将 start 修改为 stop 即可
$ hdfs --daemon start namenode
$ hdfs --daemon start datanode

PyHDFS 无法上传文件

如果使用 PyHDFS 可以创建和删除文件夹,但无法将本地文件上传到 HDFS,报错信息为 HdfsIOException: Failed to find datanode, suggest to check cluster health. excludeDatanodes=null

解决办法:上述问题通常是 HDFS NameNode 多次格式化导致,先删除 /tmp/hadoop-impala/dfs/data 目录所有文件,再重新格式化 NameNode。

该容器默认用户为 impala,如果后面需要使用到 Hue 的话,这里我们先需要先创建对应的 HDFS 目录:

# 以下不操作,会出现 User: impala is not allowed to impersonate root 报错信息
$ hdfs dfs  -mkdir /tmp
$ hdfs dfs  -mkdir -p /user/impala

如果你之前没有将 8020、9000、9870、9864、10000 这些端口暴露出来,那么需要删除容器重新创建,且再走一遍文档的操作:

docker run -d --name kudu-impala -p 0.0.0.0:21000:21000 -p 0.0.0.0:21050:21050 -p 0.0.0.0:25000:25000 -p 0.0.0.0:25010:25010 -p 0.0.0.0:25020:25020 -p 0.0.0.0:8020:8020 -p 0.0.0.0:9000:9000 -p 0.0.0.0:9870:9870 -p 0.0.0.0:9864:9864 -p 0.0.0.0:10000:10000 --env "JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre" --env "HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop" --memory=4096m apache/kudu:impala-latest impala

如果希望容器启动时默认开启 WebHDFS 服务,在 /impala-entrypoint.sh 文件中添加如下内容,其中 start_hive_hs2 为后面开启 Hive 连接端口所用,这里先写上相关内容:

/impala-entrypoint.sh
function start_hive_hs2() {
  hive --service hiveserver2 &
}

function start_hdfs() {
  hdfs --daemon start namenode
  hdfs --daemon start datanode
}

if [[ "$1" == "impala" ]]; then
  mkdir -p $DATA_DIR
  mkdir -p $LOG_DIR
  start_hive_metastore
  start_hdfs
  start_hive_hs2
  start_statestored
  start_catalogd
  start_impalad
  tail -F ${LOG_DIR}/impalad.INFO
elif [[ "$1" == "help" ]]; then
  print_help
  exit 0
fi

3. Apache Hive

开启 Hive Metastore 需要先设置好 JAVA_HOME 以及 HADOOP_CONF_DIR 环境变量。在创建容器时就将 10000 接口暴露出来:

docker run -d --name kudu-impala -p 0.0.0.0:21000:21000 -p 0.0.0.0:21050:21050 -p 0.0.0.0:25000:25000 -p 0.0.0.0:25010:25010 -p 0.0.0.0:25020:25020 -p 0.0.0.0:8020:8020 -p 0.0.0.0:9000:9000 -p 0.0.0.0:9870:9870 -p 0.0.0.0:9864:9864 -p 0.0.0.0:10000:10000 --env "JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre" --env "HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop" --memory=4096m apache/kudu:impala-latest impala

接下来执行以下命令开启 HiveServer2 服务,需要注意的是,要求 HDFS 的 NameNode 和 Datanode 服务需要先启动

nohup hive --service hiveserver2 > /dev/null 2>&1 &

当然我们可以直接在 /impala-entrypoint.sh 进行设置,不必每次进入容器手动开启:

/impala-entrypoint.sh
function start_hive_hs2() {
  hive --service hiveserver2 &
}

function start_hdfs() {
  hdfs --daemon start namenode
  hdfs --daemon start datanode
}

if [[ "$1" == "impala" ]]; then
  mkdir -p $DATA_DIR
  mkdir -p $LOG_DIR
  start_hive_metastore
  start_hdfs
  start_hive_hs2
  start_statestored
  start_catalogd
  start_impalad
  tail -F ${LOG_DIR}/impalad.INFO
elif [[ "$1" == "help" ]]; then
  print_help
  exit 0
fi

4. Hue

我们可以通过 Hue 的镜像快速创建容器,

docker run -it -p 8888:8888 gethue/hue:latest

4.1 配置 Impala 服务

/usr/share/hue/desktop/conf/hue.ini
1
2
3
4
5
6
7
[desktop]
default_user=impala
default_hdfs_superuser=impala

[impala]
server_host=<宿主机IP>
server_port=21050

4.2 配置 WebHDFS 服务

/usr/share/hue/desktop/conf/hue.ini
1
2
3
4
5
6
7
8
[desktop]
default_user=impala
default_hdfs_superuser=impala

[hadoop]
[[hdfs_clusters]]
[[[default]]]
webhdfs_url = http://<宿主机IP>:9870/webhdfs/v1

4.3 配置 Hive 服务

Thrift version configured by property thrift_version might be too high. Request failed with "Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null, username:hue, configuration:{hive.server2.proxy.user=yumingmin})" (code OPEN_SESSION): None

打开 Hue 的 Hive Editor,出现如上错误,需要在 hue.ini 文件中修改 thrift_version=7

/usr/share/hue/desktop/conf/hue.ini
1
2
3
4
[beeswax]
hive_server2_host=<宿主机IP>
hive_server_port=10000
thrift_version=7

5. 参考文档

Mac软件安装后无法打开,提示已损坏

1. 通过命令打开权限

在终端中执行如下命令后,打开设置 -> 隐私与安全性 -> 安全性,会发现多了一个“任何来源”,此时再打开软件,就可以正常打开了。

sudo spctl  --global-disable
sudo spctl  --master-disable

2. 试一下另一种命令

如果上述情况不依然不行,则可以尝试以下命令,需要注意的是 /Applications/DBeaverUltimate.app需要替换成你安装的软件的路径。

sudo xattr -r -d com.apple.quarantine /Applications/DBeaverUltimate.app

VSCode 最受欢迎的插件

1. GitLens

2. Git History

3. Prettier Code Formatter

4. Docker

5. Rainbow CSV

6. Live Server

7. Quokka.js

8. Remote SSH

9. Code Runner

10. Import Cost

11. Peacock

12. AI 辅助

Lingma / Github Copilot / Tabnine / Codeium / CodeWhisper

13. CodeSnap

还有一个 PolaCode,但感觉 CodeSnap 更好用

14. Auto Rename Tag

15. Auto Close Tag

16. Github Actions

17. ES7+ React/Redux/React-Native snippets

18. Tailwind CSS IntelliSense

19. Path Intellisense

20. DataWrangler

21. Git Graph

22. Bracket Pair Colorizer

VSCode 已内置,无需再安装插件。

23. ErrorLens

24. Highlight Matching Tag

25. Better Comments

26. Indent Rainbow

27. Vue

Vue3 Snippets / Vetur