Nisam skoro koristio Copilot - mislim da su pred kraj septembra ubacili podrsku za o1 preview u Copilot Pro verziji, mozda ima problema oko implementacije CoT LLM-a u coding assistant.
Ako probas o1, primetices da je znacajno sporiji od GPT-4o i cak 'originalnog' GPT-4 - ne samo to, vec trenutno pri koriscenju o1 modela nema mogucnosti za podesavanje bilo kojih parametara. Cini se da je OpenAI proveo jako puno vremena na zastiti samog modela od 'ispitivanja' kako radi, pod pretpostavkom da im je to jedini 'jaz' koji imaju izmedju sebe i konkurencije. Ako je to tacno, ne bi me cudilo da aplikacije koje su do skora koristile GPT-4(o) mozda imaju problem u tranziciji na o1 zbog promene nacina funkcionisanja.
Kao sto rekoh, na samom kodiranju meni o1 ne deluje kao napredak u odnosu na predhodne modele - u svakom slucaju, u beta fazi je, videcemo kako ce izgledati sledece iteracije.
Sto se samih coding asistenata tice, u poletku je Copilot stvarno bio nesto unikatno zbog same integracije u VS.
Ali danas postoji vise solucija, plus neki modeli mogu biti mnogo adekvatniji - npr. Gemini Pro (
https://cloud.google.com/products/gemini/code-assist?hl=en) ima 1M context window, sto moze da napravi veliku razliku ako hoces da ti asistent "usisa" ceo kod (ili bar sve relevantno) i na osnovu konteksta pruza pomoc.
Btw, probaj Claude Sonnet 3.5 - meni je licno bolji od GPT-4o, pogotovu kada su u pitanju problemi iz racunarske nauke u pitanju.
Vidi i:
https://aider.chat/docs/leaderboards/ - ako planiras da testiras neki lokalni (DeepSeek 2.5 npr. - mada najveca verzija ima 236B parametara sto je i dalje neprakticno za kucnu upotrebu) tu se moze naci nekoliko dobrih kandidata, mada ako se trazi nesto uporedivo sa Sonnet 3.5 / GPT-4o, izbor nije veliki i pricamo o 72B/123B/236B/405B modelima i verovatno ni jedan od njih nije univerzalno dobar za sve kao SOTA modeli OpenAI-ja i Claude-a, ali za specijalizovane stvari mogu biti, nekad cak i bolji.
Takodje, treba imati u vidu i privatnost - za vecinu ljudi to mozda nije problem, ali za neke aplikacije ima smisla spreciti da Microsoft / OpenAI koriste kod.
Za ovakvu primenu, dobra vest je cene H100 hardvera u cloud-u padaju (
https://www.latent.space/p/gpu-bubble) - pa za neke relativno male pare mozes dici "privatni" cloud sa npr. 4xA100 za $4.2 po satu (vast.ai) ili 8xH100 za oko $20 (vast.ai) ili cak 4x MI300 za ~$11 po satu (runpod.io) -- sa ovim je moguce trcati najbolje otvorene modele poput LLAMA 3.1 405B / DeepSeek Coder 2.5 236B ili Mistral Large 2 123B sa FP8 kvantizacijom ili cak FP16 (DeepSeek ili Mistral Large 2) bez davanja podataka mega-korporacijama.
DigiCortex (ex. SpikeFun) - Cortical Neural Network Simulator:
http://www.digicortex.net/node/1 Videos:
http://www.digicortex.net/node/17 Gallery:
http://www.digicortex.net/node/25
PowerMonkey - Redyce CPU Power Waste and gain performance! -
https://github.com/psyq321/PowerMonkey