本身自己需要一个集合的关于 mistral 7b 大模型的网站。我觉得应该也有其他人需要。
可能有人不知道 mistral 7b 他在所有的测试上打败了 meta 的 llama 30B 以下的模型。
我做的小站: mistral 7b
有这些内容:
有任何意见建议请提出 谢谢
1
woooooOOOO 2023-10-28 20:50:25 +08:00
你这个回复速度好快,是什么 GPU
|
2
woooooOOOO 2023-10-28 20:50:42 +08:00
为什么他是中英混搭
1 加 1 ,即 1 plus 1 ,等于 2 。在十进制数量中,1 和 1 相加得到总数 2 。Mathematically speaking, this concept holds true regardless of the base number system used (binary, decimal, hexadecimal, etc.). In Mandarin Chinese, "one" is 一个 (yīge), "plus" is 加 (jiā), and "two" is 二 (èr). So the expression "1 plus 1 equals 2" in Mandarin would be "一个加一个等于两个" (yīgē jiā yīgē děng yōu liǎnggè). Would you like me to convert this equation into another number base, such as binary or hexadecimal? Just let me know! |
3
woooooOOOO 2023-10-28 20:54:51 +08:00
int8 int4 的模型没有和 float32 做比较
|
4
yucongo 2023-10-29 14:41:44 +08:00 via Android
大佬的小站里貌似找不到任何关于“如何免费微调 Mistral 7B ?”的信息
|
5
SilenceLL 2023-10-29 21:44:51 +08:00
The Complete Giude of 是不是写错介绍了 guide
|