Page 1 sur 1

Intelligence Artificielle - je veux bien qu'on en parle

Publié : jeu. 13 févr. 2025 18:13
par arank-thnar
Hello hello.

Pour le boulot, j'aimerais monter un LLM local. Je vais partir sur du MistralAI pour diverses raisons que je ne pourrais pas forcément exposer ici.
Ce que je peux dire c'est que de l'opensource en local, c'est cool. Et du frenchy c'est encore mieux. :lol:
Alors honnêtement, je n'y connais rien. Que ce soit en soft ou en hardware.
Donc je me dis que c'est le bon endroit pour lancer une discussion !

Est-ce que certains parmi vous ont fait mumuse avec ces joujous ?

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : jeu. 13 févr. 2025 20:02
par Ryu_wm
même chose, j'ai bossé 2 jours à me faire une machine Linux pour en faire une deep learning, mais j'ai échoué à faire fonctionner Cuda (la CG est bien trop vieille et pas compatible 12.8).
Même si "IA" à toutes les sauces (surtout mal employé) me gonfle, je veux bien apprendre deep learning & LLM.
De même qu'en service tout fait et déjà dispo, je voudrais trouver le temps d'apprendre à utiliser des IA génératives vidéo.

mais j'y connais que dalle :lol:

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : jeu. 13 févr. 2025 22:33
par gizmo78
j'ai commencé à faire joujou avec llama.cpp sur une machine cpu only : E5-2698v4/32Go de ram.

Pour le fun et apprendre c'est bien, pour utiliser plus, c'est trop lent.
J'ai un bout de billet de blog en WIP si ça intéresse.

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : ven. 14 févr. 2025 09:25
par arank-thnar
je veux bien :)

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : ven. 14 févr. 2025 09:35
par gizmo78
c'est mis à côté ;)

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : ven. 14 févr. 2025 20:55
par TheMartel
Et en dual sur le même cpu est ce que ça suffirait selon toi ?

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : dim. 16 févr. 2025 12:07
par Ryu_wm
gizmo78 a écrit : jeu. 13 févr. 2025 22:33 j'ai commencé à faire joujou avec llama.cpp sur une machine cpu only : E5-2698v4/32Go de ram.

Pour le fun et apprendre c'est bien, pour utiliser plus, c'est trop lent.
J'ai un bout de billet de blog en WIP si ça intéresse.
merci, super test !
ça donne déjà des trucs sympa.
Je vois en effet la limitation matérielle et moi je ne dispose pas de GPU plus costaud qu'une GTX 1050 Ti sur ma plateforme de tests :lol:
En CPU j'ai du dual E5-2640v3 32 Threads mais ils sont datés aussi. Je crois avoir fait un bench sur un I5-12500 qui donne les mêmes perfs.

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : dim. 16 févr. 2025 14:22
par biour
Pour avoir suivi des conférences,
IA c'est pas pour intelligence artificielle, mais pour renseignements/réseau (pensait intelligence service par exemple).
Pasque une IA c'est con a la base voir très con.

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : dim. 16 févr. 2025 17:46
par Ryu_wm
Merci @Biour pour ça
viewtopic.php?p=338451#p338451

j'ai installé pas mal de modules, tenté de comprendre la doc mais j'ai l'impression que ça se destine déjà à un public averti.
J'ai par exemple Fooocus qui mouline et ... ne produit rien.
En revanche il est très fort pour donner une description d'une image/photo qu'on lui importe

J'ai essayé RuinedFocus ... ben il ne se passe rien

je teste Stable Diffusion Forge et après je laisse tomber pour aujourd'hui

pas simple :sweat:
https://nasts-srv1.myftp.org/smp/20250216_1.png
https://nasts-srv1.myftp.org/smp/20250216_2.png

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : dim. 16 févr. 2025 18:47
par gizmo78
TheMartel : aucune idée j'ai pas testé

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : lun. 17 févr. 2025 10:03
par biour
Ryu_wm a écrit : dim. 16 févr. 2025 17:46 Merci @Biour pour ça
viewtopic.php?p=338451#p338451

j'ai installé pas mal de module, tenté de comprendre la doc mais j'ai l'impression que ça se destine déjà à un public averti.
J'ai par exemple Fooocus qui mouline et ... ne produit rien.
En revanche il est très fort pour donner une description d'une image/photo qu'on lui importe

J'ai essayé RuinedFocus ... ben il ne se passe rien

je teste Stable Diffusion Forge et après je laisse tomber pour aujourd'hui

pas simple :sweat:
https://nasts-srv1.myftp.org/smp/20250216_1.png
https://nasts-srv1.myftp.org/smp/20250216_2.png
Envoi moi un lien ftp, et prévois 400go de libre sur je t'envoie le mien. Fait juste que je trouve comment retirer mes clé API

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : mer. 19 févr. 2025 05:54
par Ryu_wm
C'est super sympa de ta part, mais le but pour moi n'est pas de générer des produits, mais bien de tout maitriser.
Des projets comme ça je suis capable de les mettre en standby pendant des mois et puis d'y revenir.
Si ça se trouve j'ai juste un souci de version ou de plateforme et ça se passera mieux la prochaine fois.

---
biour a écrit : dim. 16 févr. 2025 19:35 positive prompt:
(photorealistic, realistic:1.2), (textured skin:1.3), realistic skin, HDR,beautiful girl sitting on the sidewalk with a wicked look on her face, natural daylight ,<lora:hiiragi_utena:0.7> utena_wz,short hair, purple hair, ahoge, yellow eyes, +.+, star-shaped pupils, star \(symbol\), hair between eyes, demon wings, demon horns, pasties, fangs, demon girl, puffy sleeves, purple elbow gloves, navel, purple pants, bat wings, corset,crop top, white dress, nsfw,,<lora:Background_Detail_v3:1>

Negative:
(cartoon, painting, illustration:1.2), (worst quality, low quality, normal quality:2) Asian-Less-Neg, epiCRealism, ng_deepnegative_v1_75t,sfw

Steps: 40, Sampler: DPM++ 2M, Schedule type: Karras, CFG scale: 8, Seed: 3807875742, Face restoration: CodeFormer, Size: 512x768, Model hash: 463d6a9fe8, Model: absolutereality_v181, Denoising strength: 0.3, Clip skip: 2, Hires upscale: 2, Hires steps: 25, Hires upscaler: R-ESRGAN 4x+, Lora hashes: "hiiragi_utena: 14a2b4c65702, Background_Detail_v3: b621a1d5a116", Downcast alphas_cumprod: True, Version: v1.10.1
je n'ai pas les mêmes possibilités visiblement.

https://nasts-srv1.myftp.org/smp/20250219_1.png https://nasts-srv1.myftp.org/smp/20250219_2.png

mais je lance ...

---
biour a écrit : dim. 16 févr. 2025 19:35 la derniere creation 14s mais 40 steps

:lol: :lol: :lol:

ici 9 minutes avec Cuda @99% pour générer ça (nous n'avons pas les mêmes checkpoints \sd)
https://nasts-srv1.myftp.org/smp/20250219_3.png

Je ne sais pas pourquoi, mais là il a bien respecté 'nsfw' comparé à ta génération ?
<même racine url> nom d'image 00000-3807875742 toujours en Portable Netwok Graphic.

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : mer. 19 févr. 2025 07:14
par biour
Alors tu peux faire du IMG to img mais c'est je trouve très compliqué (cela permet d'affiner ta création en changeant des détails)
PNG info je fonctionne qu'avec les images générer par le soft.

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : mer. 19 févr. 2025 07:25
par Ryu_wm
je viens de comprendre img2img ;)

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : dim. 23 févr. 2025 17:09
par arank-thnar
On m'a filé quelques guidelines.
Je vous partagerai ça dans la semaine.

Re: Intelligence Artificielle - je veux bien qu'on en parle

Publié : dim. 23 févr. 2025 22:39
par biour
:love: