V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  albin504  ›  全部回复第 1 页 / 共 11 页
回复总数  211
1  2  3  4  5  6  7  8  9  10 ... 11  
增高了就有信心了吗?真是搞笑了。
信心从哪里来? 靠工作中不能突破自己也能增强信心的。我的信心就是这么来的
我身高和你一样
19 天前
回复了 onezmin 创建的主题 武汉 准备卖房,请教一下各位挂牌价多少合适
1 、不用给红包。不解决问题
2 、不要链家独家。如果独家了意味着他们可以随意拿捏你、打压你
3 、找足够多的中介挂牌、让他们竞争。当然你价格也要合适。

我去年底上海卖房是这么操作的,最后成交价比贝壳的客户高 10 万。 最后是 1 个点中介费的万科二手房中介成交的
25 天前
回复了 ryan4yin 创建的主题 职场话题 离职真的很难体面
兄弟是直性子人,挺不错的。吃亏有时候也是福
25 天前
回复了 ryan4yin 创建的主题 职场话题 离职真的很难体面
为啥不拿了年终奖再提离职啊
@alexhx 科技大佬都说了,未来 10 年大部分职业都会被人工智能取代。
如果要走技术深度路线,新人不学这,那学啥啊?

另外一条路是,培养指挥 AI 办事儿的能力。比如你一个人开一家公司,你懂产品、技术、商业,自己利用 AI 能跑通一个商业模式。

再者就是,向 AI agent 开发方向靠拢
@CziL 谢谢分享
@Baymaxbowen 谢谢。神器
@dxcqcv 不知道。最近业务中用到了 GPU ffmpeg 视频转码。 出于好奇,在了解一些 cuda 编程的知识
@qieqie 大佬说的词我都还没听过,刚开始学了两天
@qieqie 遇到行家了。我贴一下代码:

```
#include <stdio.h>
#include <stdlib.h>
#include <time.h>
#include <cuda_runtime.h>
#include "common/book.h"

#define N (32 * 1024 * 1024) // 32M elements
#define THREADS_PER_BLOCK 256

// Kernel to initialize data directly on GPU
__global__ void init_data_kernel(float *a, float *b, int n) {
int tid = threadIdx.x + blockIdx.x * blockDim.x;
int stride = blockDim.x * gridDim.x;

for (int i = tid; i < n; i += stride) {
a[i] = 1.0f;
b[i] = 2.0f;
}
}

// Dot product computation kernel (Same as before)
__global__ void dot_product_kernel(float *a, float *b, float *c, int n) {
int tid = threadIdx.x + blockIdx.x * blockDim.x;
int stride = blockDim.x * gridDim.x;

float sum = 0;
for (int i = tid; i < n; i += stride) {
sum += a[i] * b[i];
}

// Shared memory reduction per block
__shared__ float cache[THREADS_PER_BLOCK];
int cacheIndex = threadIdx.x;
cache[cacheIndex] = sum;
__syncthreads();

int i = blockDim.x / 2;
while (i != 0) {
if (cacheIndex < i)
cache[cacheIndex] += cache[cacheIndex + i];
__syncthreads();
i /= 2;
}

if (cacheIndex == 0)
atomicAdd(c, cache[0]);
}

void dot_product_cpu(float *a, float *b, float *c, int n) {
double sum = 0;
for (int i = 0; i < n; i++) {
sum += a[i] * b[i];
}
*c = (float)sum;
}

int main() {
// Host pointers (only for verification)
float *a_host, *b_host, *c_cpu, *c_gpu;
// Device pointers
float *dev_a, *dev_b, *dev_c;

// Allocate host memory (just for CPU verification)
a_host = (float*)malloc(N * sizeof(float));
b_host = (float*)malloc(N * sizeof(float));
c_cpu = (float*)malloc(sizeof(float));
c_gpu = (float*)malloc(sizeof(float));

// Initialize host arrays for CPU calculation
for(int i=0; i<N; i++) {
a_host[i] = 1.0f;
b_host[i] = 2.0f;
}

printf("Vector size: %d elements (%.2f MB per vector)\n", N, (float)N * sizeof(float) / 1024 / 1024);

// --- CPU Computation ---
clock_t start = clock();
dot_product_cpu(a_host, b_host, c_cpu, N);
clock_t end = clock();
double cpu_time = ((double)(end - start)) / CLOCKS_PER_SEC * 1000.0;
printf("CPU Result: %.2f\n", *c_cpu);
printf("CPU Time: %.2f ms\n", cpu_time);

// --- GPU Computation (Zero-Copy Init) ---

// 1. Allocate Device Memory
HANDLE_ERROR(cudaMalloc((void**)&dev_a, N * sizeof(float)));
HANDLE_ERROR(cudaMalloc((void**)&dev_b, N * sizeof(float)));
HANDLE_ERROR(cudaMalloc((void**)&dev_c, sizeof(float)));

start = clock();

// 2. Initialize Data on GPU (No Memcpy from Host!)
int blocksPerGrid = (N + THREADS_PER_BLOCK - 1) / THREADS_PER_BLOCK;
if (blocksPerGrid > 65535) blocksPerGrid = 65535;

init_data_kernel<<<blocksPerGrid, THREADS_PER_BLOCK>>>(dev_a, dev_b, N);
HANDLE_ERROR(cudaGetLastError());

// Reset result
float zero = 0.0f;
HANDLE_ERROR(cudaMemcpy(dev_c, &zero, sizeof(float), cudaMemcpyHostToDevice)); // Tiny copy (4 bytes)

// 3. Compute
dot_product_kernel<<<blocksPerGrid, THREADS_PER_BLOCK>>>(dev_a, dev_b, dev_c, N);
HANDLE_ERROR(cudaGetLastError());
cudaDeviceSynchronize();

// 4. Copy Result Back
HANDLE_ERROR(cudaMemcpy(c_gpu, dev_c, sizeof(float), cudaMemcpyDeviceToHost)); // Tiny copy (4 bytes)

end = clock();
double gpu_time = ((double)(end - start)) / CLOCKS_PER_SEC * 1000.0;

printf("GPU Result: %.2f\n", *c_gpu);
printf("GPU Time (Total including Init on GPU): %.2f ms\n", gpu_time);

// Compare
printf("Speedup (GPU vs CPU): %.2fx\n", cpu_time / gpu_time);

// Cleanup
free(a_host); free(b_host); free(c_cpu); free(c_gpu);
cudaFree(dev_a); cudaFree(dev_b); cudaFree(dev_c);

return 0;
}


```

这个版本是在 GPU 上初始化向量。



AI 给出的第一版是在 CPU 上初始化向量然后 copy 到 GPU ,这个 copy 过程成为了瓶颈( 200 多 M 数据 copy 花费 64ms )
@crocoBaby 嗯嗯,谢谢,抽空我也看看。这方面我是门外汉,我只是拼感觉提的几个问题。
@crocoBaby 给 AI 喂权威资料,现在已经成为 AI 训练的一个难题了。 以公司内部的知识库资料训练为例,假如我们要高很多一个公司内部的行政小助理,训练会遇到以下问题:
( 1 )公司内部的知识库上有多篇文章提到公司的考勤制度,其中一些文章写的制度已经过时了,这时候 AI 就需要去判断该采信哪个信息源。
( 2 )有些政策和特定的毕竟信息强相关(类似于不同的软件版本不同的参数),在提问时如果没给出很具体的背景信息,AI 只是根据概率给出了概率较大的答案,这时候很可能是错误的答案
( 3 )有些知识库的内容本身就是错误的(就是你提到的不权威)
@YanSeven Coding 是很牛。 这里有个前提,方案还是得靠程序员设计。设计好了合适的方案,AI 来执行实施( coding )。
@YanSeven 我理解,至少现在来看,即使有了大模型,程序员也得学习新技术,只是侧重点不同。现在需要学的是原理性的、框架性的、需要具备技术选型、优劣判断的能力。

举例,我最近在学习 nvidia GPU 编程的技术。 我如果不系统学习的话,遇到一个特定的问题,AI 是不会提供 GPU 解决思路的,即使提供的,我也可能因为拿捏不准不敢用到生产环境。 我需要具备评判 AI 给出的方案的优劣、是否适配业务的能力。
@liuzimin 这其实也给我们程序员提了个醒:在遇到问题的时候,先初步判断下这个问题是否适合用 AI 来找答案。如果一股脑地找 AI ,问题解决不了不说,还会丧失咱们本有的技能
@liuzimin 是的。举例,前几天我在手动编译 ffmpeg ,打 dockfile 。
中间遇到问题问 AI ,折腾了一天还没搞好。

后来发现 github 上有现成的 dockerfile ,拿来直接用了。

还有一次,利用 Mongodb_restore 命令在不同库之间导数据,遇到报错问 AI ,尝试各种参数都不解决。后来执行 Mongodb_restore --help , 一看就知道该用哪个参数了。

我想根因在于,大模型核心里面还是概率预测 token ,那么它预测出来的答案,和我遇到的问题的背景信息很难匹配(比如我的 Mongodb_restore 是特定的版本,有特定的参数)。

AI 很容易张冠李戴
@albin504 音质、降噪确实还不错
@Jerry02 对。槽点主要在语音播报,纯粹制造噪音。还有耳机侧面的按键交互太扯淡了,容易误操作,而且还记不住
宝岛不错,很专业。但是大部分宝岛店都是冒牌的。五六百
@Jerry02 我戴的这个。bose qc ultra 。 还可以,夹头是真的会不太舒服。 另外,交互有些不太好(产品经理有点弱智)
1  2  3  4  5  6  7  8  9  10 ... 11  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2590 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 24ms · UTC 06:40 · PVG 14:40 · LAX 22:40 · JFK 01:40
♥ Do have faith in what you're doing.