
หากคุณทำงานในด้าน VFX และอยากยกระดับเวิร์กโฟลว์การสร้างภาพของคุณไปอีกระดับ ComfyUI ถือเป็นสิ่งที่ต้องมี แนวทางแบบโหนด ความเป็นโมดูล และพลังที่ FLUX เพิ่มเข้ามา ซึ่งทำให้เป็นสภาพแวดล้อมที่เหมาะสำหรับการสำรวจทุกอย่างตั้งแต่ text2img ที่มีความเที่ยงตรงสูงไปจนถึงไพพ์ไลน์ที่ซับซ้อนด้วยการฝึกอบรม ControlNet, IP-Adapter หรือ LoRA ComfyUI สำหรับ VFX: การติดตั้งและอธิบายเวิร์กโฟลว์ FLUX.
ในคู่มือนี้ คุณจะพบทุกสิ่งที่คุณต้องการในรูปแบบที่เป็นระเบียบ: เวิร์กโฟลว์ใน ComfyUI คืออะไร วิธีบันทึกและแชร์ วิธีติดตั้ง FLUX ทีละขั้นตอน ฮาร์ดแวร์ที่คุณต้องการ และคำอธิบายที่ชัดเจนของโฟลว์ที่ใช้มากที่สุด (Txt2Img, Img2Img, Inpainting, LoRA, ControlNet, NF4, IPAdapter และการปรับขนาดแฝง) คุณจะเห็นทางเลือกอื่นเช่น FP8, NF4 หรือ GGUF เพื่อลด VRAMทรัพยากรสำหรับการใช้ Flux บนคลาวด์ และการติดตั้ง ComfyUI ที่ปรับให้เหมาะกับ Windows พร้อมเคล็ดลับที่เป็นประโยชน์
เวิร์กโฟลว์ใน ComfyUI คืออะไร?
เวิร์กโฟลว์เป็นการแสดงภาพของกระบวนการสร้างที่คุณสร้างโดยการรวมโหนดเข้าด้วยกัน คุณสามารถจินตนาการว่ามันเป็นกระดานแบบเลโก้ที่มีชิ้นส่วนต่างๆโหนดแต่ละโหนดจะทำหน้าที่บางอย่าง (เช่น การโหลดโมเดล การเข้ารหัสข้อความ การสุ่มตัวอย่าง การถอดรหัส เป็นต้น) และการเชื่อมต่อจะอธิบายเส้นทางที่ข้อมูลจะปฏิบัติตามจนกระทั่งได้ภาพสุดท้าย
ระบบนิเวศน์มีมากมายมหาศาล: ภาพนิ่ง วิดีโอ เสียง และแม้กระทั่ง 3 มิติ พวกมันอยู่ร่วมกันได้เพราะชุมชนโอเพนซอร์ส ข้อเสียคือต้องใช้เวลาเรียนรู้ เพราะสิ่งสำคัญคือต้องเข้าใจหน้าที่ของแต่ละองค์ประกอบและวิธีการผสมผสานอย่างมีประสิทธิภาพเพื่อหลีกเลี่ยงปัญหาคอขวดหรือผลลัพธ์ที่ไม่สอดคล้องกัน
หากต้องการเริ่มต้นอย่างรวดเร็ว ควรดูขั้นตอนพื้นฐานและอย่างเป็นทางการ (text2img และ img2img) ก่อน จากนั้นจึงค่อยไปดูโหนดที่ซับซ้อนมากขึ้น เอกสารชุมชนและตัวอย่าง ComfyUI อย่างเป็นทางการ มีการอัปเดตบ่อยครั้ง ดังนั้นจึงง่ายต่อการกลับมาดำเนินการหรือตรวจสอบเวิร์กโฟลว์ที่เปลี่ยนแปลงไปกับเวอร์ชันใหม่
รายละเอียดที่สำคัญอย่างหนึ่ง: ComfyUI สามารถฝังเวิร์กโฟลว์ลงในภาพสุดท้าย (PNG) ได้ด้วยตัวเองเป็นข้อมูลเมตา วิธีนี้ช่วยให้คุณแชร์เฉพาะภาพและดึงข้อมูลกราฟทั้งหมดได้ ลากมันกลับไปที่อินเทอร์เฟซ
วิธีการเรียนรู้และก้าวหน้าด้วยเวิร์กโฟลว์
คำแนะนำของฉันคือให้เริ่มต้นด้วยตัวอย่างง่ายๆ ที่เผยแพร่ในทรัพยากรประเภทวิกิและแกลเลอรีชุมชน ความก้าวหน้าเชิงตรรกะคือ: Txt2Img, Img2Img และ ControlNet หรือ LoRAเมื่อคุณเข้าใจอินพุต เอาท์พุต และวิธีที่ผู้วางแผนส่งผลต่อการสุ่มตัวอย่างแล้ว การรวมโหนดไกด์ มาสก์ และเงื่อนไขเพิ่มเติมก็จะกลายเป็นเรื่องปกติ
หากคุณต้องการดูโทโพโลยีต่างๆ มีที่เก็บข้อมูลการไหลสาธารณะและหน้าที่มีตัวอย่างที่ทำซ้ำได้ซึ่งคุณสามารถดาวน์โหลดรูปภาพที่มีข้อมูลเมตาหรือไฟล์ .json ได้ ถือเป็นแนวทางปฏิบัติที่ดีในการนำเข้า รันตามที่เป็นอยู่ และทำซ้ำผ่านพารามิเตอร์ เพื่อเข้าใจผลกระทบของแต่ละบล็อกโดยไม่ทำลายทั้งหมด
บนแพลตฟอร์มคลาวด์ คุณจะพบสภาพแวดล้อมที่กำหนดค่าไว้ล่วงหน้าสำหรับการรันไปป์ไลน์โดยไม่ต้องดิ้นรนกับการอ้างอิงภายในเครื่อง ข้อดีคือพวกเขาโหลดโหนดและโมเดลหนักๆ ไว้ล่วงหน้าอย่างไรก็ตาม ขอแนะนำให้ตรวจสอบเวอร์ชันและ VRAM ที่มีอยู่เพื่อให้แน่ใจว่าผลลัพธ์ตรงตามที่คาดหวัง
การบันทึก นำเข้า และส่งออกเวิร์กโฟลว์ใน ComfyUI
ComfyUI รองรับวิธีการบันทึกหลักสองวิธี: รูปภาพที่มีข้อมูลเมตา (PNG) หรือไฟล์ JSON ของกราฟ แบบแรกสะดวกที่สุดสำหรับการแชร์ในฟอรัม แบบที่สองให้คุณควบคุมไฟล์ได้อย่างชัดเจน ซึ่งมีประโยชน์สำหรับการกำหนดเวอร์ชัน
หากต้องการนำเข้า เพียงลากไฟล์ PNG หรือ Json ไปที่อินเทอร์เฟซ หรือใช้ปุ่มลัด Ctrl (Command) + O หากต้องการส่งออก คุณสามารถบันทึกภาพที่สร้างขึ้นหรือใช้เมนูส่งออกสำหรับ JSONโปรดใช้ความระมัดระวังหากคุณบีบอัดหรือถ่ายโอนรูปภาพ: วิธีการบีบอัดบางวิธีและช่องทางบางช่องทางจะลบข้อมูลเมตา ซึ่งจะทำให้คุณสูญเสียเวิร์กโฟลว์ที่ฝังไว้
เนื่องจากการพัฒนาอย่างต่อเนื่องของ ComfyUI ไฟล์ JSON เก่าทั้งหมดไม่สามารถใช้งานในเวอร์ชันใหม่ได้หากมีข้อผิดพลาดเกิดขึ้น ให้เปิดโฟลว์ เปลี่ยนโหนดที่ล้าสมัย หรือติดตั้งการอ้างอิงใหม่ด้วยเวอร์ชันที่เข้ากันได้ การใช้ ComfyUI-Manager จะทำให้การตรวจจับและแก้ไขส่วนประกอบที่หายไปเร็วขึ้นมาก
FLUX ใน ComfyUI คืออะไรและทำไมจึงสำคัญ
FLUX.1 คือกลุ่มโมเดลจาก Black Forest Labs ที่เน้นการแปลงข้อความเป็นรูปภาพที่มีความเที่ยงตรงสูง สถาปัตยกรรมไฮบริดที่มีพารามิเตอร์ประมาณ 12 พันล้านรายการ ได้รับการปรับปรุงให้เหมาะสมสำหรับการยึดถืออย่างรวดเร็ว การจัดการฉากที่ซับซ้อน และการสร้างข้อความที่อ่านออกได้ภายในภาพ ซึ่งเป็นงานที่โมเดลอื่นมักล้มเหลว
ข้อดีอีกประการหนึ่ง: ความอเนกประสงค์ของมัน จากความสมจริงสู่สไตล์ศิลปะFLUX.1 โดดเด่นด้วยความสม่ำเสมอของภาพและรายละเอียด รวมถึงการเรนเดอร์มือ ซึ่งเป็นจุดอ่อนคลาสสิกของกราฟิกแบบสร้างภาพ จึงไม่น่าแปลกใจที่ FLUX.1 จะถูกนำไปเปรียบเทียบกับโซลูชันอย่าง Stable Diffusion หรือ Midjourney ในด้านความสะดวกในการใช้งานและคุณภาพ
Black Forest Labs ก่อตั้งโดย Robin Rombach ซึ่งเป็นบุคคลสำคัญที่ทำงานในแกนหลักของ Stability AI หากคุณต้องการลองดูด้วยตนเองเว็บไซต์อย่างเป็นทางการอยู่ที่ แบล็คฟอเรสต์แล็บส์.เอไอ.
FLUX.1 แบ่งออกเป็นสามรูปแบบ: โปร เดฟ และ ชเนลล์Pro มอบคุณภาพสูงสุดสำหรับสภาพแวดล้อมระดับมืออาชีพ Dev ได้รับการออกแบบมาเพื่อการใช้งานที่ไม่ใช่เชิงพาณิชย์โดยมีสมดุลที่ยอดเยี่ยม Schnell เน้นที่ความเร็วและความเบา และเป็นโอเพ่นซอร์สภายใต้ใบอนุญาต Apache 2.0
ข้อกำหนดฮาร์ดแวร์ตามเวอร์ชัน FLUX
สำหรับ FLUX.1 Pro ขอแนะนำ GPU ประเภท NVIDIA RTX 4090 พร้อม VRAM 24 GBRAM 32 GB และ SSD ความเร็วสูง ใช้ FP16 เพื่อหลีกเลี่ยงปัญหาเครื่องค้าง และควรใช้โปรแกรมเข้ารหัสข้อความใน FP16 เพื่อคุณภาพสูงสุด
ใน FLUX.1 Dev RTX 3080/3090 พร้อม VRAM 16 GB ใช้งานได้ดีกับ RAM 16 GB และพื้นที่ดิสก์ประมาณ 25 GB รองรับ FP16 และ FP8 ในบางกรณี ขึ้นอยู่กับ GPU ของคุณ
สำหรับ FLUX.1 Schnell RTX 3060/4060 พร้อม VRAM 12 GB RAM 8GB และพื้นที่เก็บข้อมูล 15GB ก็เพียงพอแล้ว ออกแบบมาเพื่อความเร็ว แต่แลกมาด้วยประสิทธิภาพที่ลดลงเมื่อเทียบกับเวอร์ชัน Pro/Dev
หากคุณมีหน่วยความจำไม่เพียงพอ ชุมชนมีทางเลือกอื่น เช่น FP8, NF4 หรือ GGUF ช่วยลด VRAM ที่จำเป็นได้อย่างมากโดยมีการกำหนดค่าเริ่มต้นตั้งแต่ 6 ถึง 12 GB ขึ้นอยู่กับการไหล
การติดตั้ง FLUX บน ComfyUI: ขั้นตอนสำคัญ
ก่อนอื่นต้องแน่ใจว่าคุณใช้ ComfyUI เวอร์ชันล่าสุดการรวม FLUX ต้องใช้โหนดและฟีเจอร์ที่ได้รับการอัปเดตบ่อยครั้ง
ดาวน์โหลดตัวเข้ารหัสข้อความและ CLIP: clip_l.ตัวป้องกัน และไฟล์ T5 XXL หนึ่งไฟล์ คือ t5xxl_fp16.safetensors (ถ้าคุณมี VRAM/RAM เยอะ) หรือ t5xxl_fp8_e4m3fn.safetensors (ถ้าคุณมีงบประมาณจำกัด) วางไว้ในโฟลเดอร์ ComfyUI/models/clip/ หากคุณใช้ SD3 Medium คุณอาจมีไฟล์เหล่านี้แล้ว.
VAE: ดาวน์โหลด เออี.เซฟเทนเซอร์ และย้ายไปที่ ComfyUI/models/vae/ เปลี่ยนชื่อเป็น flux_ae.safetensors หากต้องการค้นหาได้ง่ายขึ้น VAE นี้ช่วยปรับปรุงการถอดรหัสขั้นสุดท้าย และมันคือกุญแจสำคัญของคุณภาพ
UNET: เลือกระหว่าง flux1-dev.safetensors หรือ flux1-schnell.safetensors ตามความจำของคุณ และวางไว้ใน ComfyUI/models/unet/ ด้วยสิ่งนี้ คุณจะมีรากฐานในการรันโฟลว์ FLUX ท้องถิ่น.
คู่มือปฏิบัติสำหรับเวิร์กโฟลว์ FLUX ใน ComfyUI
Txt2Img พร้อม FLUX
เริ่มต้นด้วยการโหลดส่วนประกอบ: UNETLoader, DualCLIPLoader และ VAELoaderโหนด CLIPTextEncode จะเข้ารหัสพรอมต์ของคุณ EmptyLatentImage จะสร้างภาพแฝงเริ่มต้น BasicGuider จะแนะนำกระบวนการโดยรวมตรรกะแบบมีเงื่อนไขกับ UNET ของ FLUX
เลือกตัวอย่างด้วย KSamplerSelectสร้างสัญญาณรบกวนด้วย RandomNoise และกำหนดค่า Sigma Ramp ด้วย BasicScheduler SamplerCustomAdvanced รวมทุกอย่างเข้าด้วยกัน: สัญญาณรบกวน, ไกด์, ตัวอย่าง, ซิกม่า และ Latent ในที่สุด VAEDecode จะแปลงสัญญาณแฝงเป็นภาพ และด้วย SaveImage คุณสามารถบันทึกผลลัพธ์ได้
Img2Img กับ FLUX
ไปป์ไลน์เพิ่มรูปภาพเริ่มต้น: โหลดภาพ + ปรับขนาดภาพ ปรับขนาดแล้ว และ VAEEncode ตั้งค่าเป็น latent พรอมต์ถูกเข้ารหัสด้วย CLIPTextEncode และปรับความเข้มด้วย FluxGuidance ModelSamplingFlux ควบคุมการเว้นระยะห่างและมิติKSamplerSelect, RandomNoise และ BasicScheduler จัดการการสุ่มตัวอย่าง SamplerCustomAdvanced จะผสานเงื่อนไขกับค่าแฝงอินพุต และ VAEDecode จะสร้างเอาต์พุต
LoRA พร้อม FLUX
เพื่อปรับแต่งสไตล์หรือคุณสมบัติให้เพิ่ม LoraLoaderModelOnly ร่วมกับ UNETLoader, DualCLIPLoader และ VAELoader หลังจากเข้ารหัสข้อความและใช้ FluxGuidance แล้ว คุณจะสร้างภาพแฝงด้วย EmptyLatentImage กำหนดการสุ่มตัวอย่างด้วย ModelSamplingFlux และรัน SamplerCustomAdvanced ด้วย VAEDecode คุณจะได้รับภาพที่ได้รับอิทธิพลจาก LoRA แล้วตัวอย่างทั่วไป: realism_lora.safetensors บน flux1-dev
ControlNet พร้อม FLUX
สองกรณีที่มีประโยชน์มากสำหรับ VFX: ความลึกและขอบคมกริบ สำหรับความลึก ให้เตรียมการล่วงหน้าด้วย พรีโปรเซสเซอร์ MiDaS-DepthMapโหลด ControlNet เชิงลึกและนำไปใช้กับ ApplyFluxControlNet ใช้ XlabsSampler เพื่อสร้างรูปคลื่นแฝงแบบมีเงื่อนไข จากนั้น VAEDecode สร้างภาพ.
สำหรับ Canny ให้ใช้ พรีโปรเซสเซอร์ CannyEdgeโหลด Canny ControlNet และทำซ้ำรูปแบบ: ApplyFluxControlNet → XlabsSampler → VAEDecode การควบคุมเพิ่มเติมนี้ช่วยให้รูปร่างและองค์ประกอบมีความแม่นยำมากขึ้น.
การทาสีทับด้วย FLUX
โหลด UNET, VAE และ CLIP และเตรียมคำเตือนเชิงบวกและเชิงลบ LoadAndResizeImage จะแสดงภาพและหน้ากากการเปลี่ยนภาพจะถูกปรับให้เรียบเนียนด้วย ImpactGaussianBlurMask InpaintModelConditioning จะรวมการปรับสภาพ ภาพ และมาสก์เข้าด้วยกัน หลังจากกำหนดค่าแซมเพลอร์ สัญญาณรบกวน และซิกม่าแล้ว SamplerCustomAdvanced จะสร้างพื้นที่มาสก์ขึ้นมาใหม่ VAEDecode ผสานรวมแพตช์ได้อย่างสม่ำเสมอ กับส่วนที่เหลือ
ฟลักซ์ NF4
ด้วยการวัดปริมาณ NF4 หน่วยความจำจะลดลง โหลดส่วนประกอบด้วย เช็คพอยท์โหลดเดอร์NF4 และกำหนดความสูง/ความกว้างด้วยโหนดดั้งเดิม ModelSamplingFlux ตั้งค่าพารามิเตอร์ EmptySD3LatentImage สร้างภาพแฝง BasicScheduler และ RandomNoise จัดระเบียบการลดสัญญาณรบกวน SamplerCustomAdvanced สร้างสัญญาณแฝงและ VAEDecode จะแปลงสัญญาณดังกล่าวเป็นภาพสำหรับการปรับขนาด UltimateSDUpscale ร่วมกับ UpscaleModelLoader และพรอมต์เชิงบวกเพิ่มเติม จะสร้างความแตกต่างอย่างมาก
iPadapter พร้อม FLUX
เมื่อคุณต้องการปรับสภาพโดยใช้ภาพอ้างอิง ให้ใช้ LoadFluxIPAdapter และ ApplyFluxIPAdapter พร้อมกับ clip_vision_l.safetensors ปรับขนาดภาพอ้างอิงด้วย ImageScale เตรียมพรอมต์ และรัน XlabsSampler ด้วย VAEDecode คุณจะเห็นผลลัพธ์ที่ได้รับอิทธิพลจากสุนทรียศาสตร์หรือคุณลักษณะ จากภาพแนะนำ
เครื่องฝึก LoRA สำหรับ FLUX
ในการฝึก LoRA โดยตรงใน ComfyUI เวิร์กโฟลว์ประกอบด้วย: FluxTrainModelSelect, OptimizerConfig และ TrainDatasetGeneralConfigInitFluxLoRATraining จะเริ่มต้นการทำงาน FluxTrainLoop ดำเนินการตามขั้นตอน และ FluxTrainValidate จะสร้างการตรวจสอบเป็นระยะ
ด้วย VisualizeLoss คุณสามารถติดตามการสูญเสียได้ ImageBatchMulti และ ImageConcatFromBatch พวกเขาจัดกลุ่มการตรวจสอบความถูกต้อง FluxTrainSave จะบันทึกจุดตรวจสอบ และ FluxTrainEnd จะปิดกระบวนการ หากต้องการ คุณสามารถอัปโหลดผลลัพธ์ไปยัง Hugging Face ด้วย UploadToHuggingFace และแชร์ผลลัพธ์ได้
ฟลักซ์แฝงอัพสเกลเลอร์
เพื่อกำหนดขนาดโดยละเอียด ให้กำหนดขนาดด้วย SDXLEmptyLatentSizePicker+ และเชื่อมโยง LatentUpscale และ LatentCrop ด้วยมาสก์ที่สร้างโดย SolidMask และ FeatherMask LatentCompositeMasked จะผสมผสาน Latent ที่ปรับขนาดแล้วเข้ากับต้นฉบับ InjectLatentNoise+ ช่วยเพิ่มรายละเอียดก่อน VAEDecodeและการปรับแต่งด้วย ImageSmartSharpen+ ก็ช่วยให้กระบวนการเสร็จสมบูรณ์ โหนดการคำนวณเช่น SimpleMath+ ช่วยจัดสัดส่วนให้ตรงกัน
เวอร์ชันทางเลือก: FP8, NF4 และ GGUF เพื่อลด VRAM
หากคุณมีทรัพยากรไม่เพียงพอ คุณยังมีทางเลือกอื่น จุดตรวจ FP8 จาก Comfy.org และผู้เขียนอย่าง Kijai ช่วยให้คุณสามารถใช้ FLUX ด้วยไฟล์เดียว ใน ComfyUI/models/checkpoints/ ขอแนะนำให้เปลี่ยนชื่อหรือแยกเป็นโฟลเดอร์เพื่อแยกความแตกต่างระหว่างเวอร์ชัน dev และ schnell
ด้วย NF4 (bitsandbytes) ติดตั้งปลั๊กอิน คอมฟี่ UI_bitsandbytes_NF4 และใช้ ฟลักซ์1-เดฟ-บีเอ็นบี-เอ็นเอฟ4-v2 ในโมเดล/จุดตรวจสอบ เวอร์ชันนี้ปรับปรุงรายละเอียดเมื่อเทียบกับเวอร์ชันแรก
การวัดปริมาณ GGUF ของ City96 พร้อมกับปลั๊กอิน คอมฟี่ยูไอ-จีจียูเอฟลดมาตรฐานลงอีก: ดาวน์โหลดโมเดล FLUX GGUF ตัวเข้ารหัส t5-v1_1-xxl-encoder-ggufควรวางไฟล์ `clip_l.safetensors` และ `ae.safetensors` ไว้ในโฟลเดอร์ที่เกี่ยวข้อง มีกรณีการใช้งานที่สะดวกด้วย VRAM ขนาด 6 GB
การใช้ FLUX.1 ในระบบคลาวด์และทรัพยากรอื่นๆ
หากคุณไม่ต้องการติดตั้งอะไร คุณสามารถลองใช้ FLUX ได้ กอดใบหน้า Spaces: FLUX.1-การพัฒนา y ฟลักซ์.1-ชเนลล์. นอกจากนี้ใน ทำซ้ำ, มิสติก.เอไอ o ฟัล.อาย. ตัวเลือกเหล่านี้มีประโยชน์สำหรับการตรวจสอบคำเตือนและการกำหนดค่า ก่อนที่จะดาวน์โหลดโมเดลท้องถิ่น
สำหรับแรงบันดาลใจและเวิร์กโฟลว์สำเร็จรูป โปรดดู ตัวอย่างอย่างเป็นทางการของ ComfyUI และแกลเลอรีเวิร์กโฟลว์เช่น โอเพนอาร์ต. จำไว้ว่ารูปภาพจำนวนมากมีข้อมูลเมตาดังนั้นคุณจึงลากพวกมันเข้าไปใน ComfyUI เพื่อรับกราฟได้
เนื้อหาเพิ่มเติม: คอลเลกชันของ LoRA สำหรับ FLUX ในขณะที่ ความสมจริงลอร่า หรือการรวบรวมใน เอ็กซ์แลบส์-เอไอControlNet สำหรับ FLUX เป็น คอลเลกชัน y สหภาพ; อะแดปเตอร์ IP en เอ็กซ์แลบส์-เอไอในการฝึก LoRA ด้วย VRAM ต่ำ ให้ลอง ฟลักซ์ยิม หรือโปรแกรมฝึก Replicate จาก Ostris; มีคู่มือ DreamBooth สำหรับ FLUX.1 dev ในที่เก็บเครื่องกระจายกลิ่น
ติดตั้ง ComfyUI บน Windows 11 ด้วยประสิทธิภาพที่มั่นคง
หากคุณต้องการติดตั้งแบบสะอาด นี่เป็นวิธีที่พิสูจน์แล้ว ใช้งานได้ดีมากกับการ์ด NVIDIA ซีรีส์ 40/50 และช่วยให้คุณหลีกเลี่ยงข้อผิดพลาดทั่วไปได้
1) ติดตั้งแอป NVIDIA และไดรเวอร์ Studio จาก nvidia.com. รีสตาร์ท 2) CUDA Toolkit จาก developer.nvidia.com (เป็นทางเลือกแต่มีประโยชน์ในการหลีกเลี่ยงการแจ้งเตือนด้วย Triton หากคุณไม่ได้ใช้ venv) 3) ffmpeg จากที่เก็บ BtbN เพิ่ม C:\ffmpeg\bin ลงใน Path 4) Git สำหรับ Windows จาก git-scm.com5) Python 3.12 x64 จาก หลาม.orgพร้อมด้วยตัวเรียกใช้งาน Py สำหรับผู้ใช้ทั้งหมดและเพิ่มตัวแปรสภาพแวดล้อม
5.5) หากคุณเลือก venv ให้สร้างด้วย python -m venv CUVenv และเปิดใช้งานด้วย CUVenv\Scripts\activate.bat จากนั้นรันคำสั่ง pip หรือ git ที่เกี่ยวข้องภายใน venv สคริปต์เริ่มต้นของคุณสามารถเปิดใช้งานสภาพแวดล้อมและรัน ComfyUI ได้ ในครั้งเดียว
6) โคลน ComfyUI ด้วย โคลนคอมไพล์ https://github.com/comfyanonymous/ComfyUI.git D:\CU7) ไปที่ D:\CU และเรียกใช้ pip install -r requirements.txt 8) หาก pip แจ้งเตือนเกี่ยวกับสคริปต์ภายนอก Path ให้เพิ่มเส้นทาง Python Scripts ลงในตัวแปรระบบและรีสตาร์ท 9) ติดตั้ง PyTorch CUDA 12.8 ติดตั้ง torch โดยใช้คำสั่ง `pip install torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128` หากพบข้อผิดพลาด ให้ถอนการติดตั้ง torch แล้วติดตั้งใหม่โดยใช้คำสั่งเดิม
9 bis) เปิด ComfyUI ด้วย python main.py และเปิด 127.0.0.1:8188 10) ติดตั้ง Triton สำหรับ Windows ด้วย pip install -U triton-windows 11) เพิ่มความเร็วในการให้ความสนใจด้วย Sage Attention 2.2: ดาวน์โหลดล้อที่เข้ากันได้ CU128/Torch2.8 สำหรับ CP312ติดตั้งด้วย pip และเริ่ม ComfyUI ด้วยแฟล็ก –use-sage-attention
12) ติดตั้ง ComfyUI-Manager: ใน ComfyUI/custom_nodes ให้รัน git clone https://github.com/ltdrdata/ComfyUI-Manager ผู้จัดการ Comfyui13) สร้างไฟล์ boot .bat โดยมีบรรทัดต่อไปนี้: cd D:\CU และ python main.py –use-sage-attention เมื่อเริ่มต้นใช้งานครั้งแรก Manager จะใช้เวลาสักครู่หนึ่ง; ตรวจสอบว่าแท็บผู้จัดการปรากฏในอินเทอร์เฟซหรือไม่
14) วางเทมเพลตในโฟลเดอร์ที่ถูกต้อง (checkpoints, clip, unet, vae) และเปิดโฟลว์ของคุณ หากเวิร์กโฟลว์มีโหนด Sage ของตัวเอง คุณสามารถละเว้นได้หากคุณเริ่มต้นด้วยแฟล็กแล้วเคล็ดลับ: หลีกเลี่ยงการเปิดโปรแกรมที่ใช้ทรัพยากรมาก กำหนดค่าหน่วยความจำเสมือนของ Windows หากหน่วยความจำเหลือน้อย และตรวจสอบการสนทนาเกี่ยวกับประสิทธิภาพในที่เก็บ ComfyUI หากคุณได้รับคำเตือนเกี่ยวกับหน่วยความจำ ให้พิจารณาใช้เวอร์ชัน FP8 แบบไฟล์เดียว
หากคุณต้องการดาวน์โหลดคู่มือ มี PDF ที่เป็นประโยชน์ที่ การเชื่อมโยงนี้. คำแนะนำบางส่วนได้รับการแก้ไขเพื่อให้การติดตั้งง่ายขึ้นและเสนอ venvเมื่อใช้ venv โปรดจำไว้ว่าต้องรัน pip และ git ภายในสภาพแวดล้อมเสมอ
เคล็ดลับการใช้งาน ความเข้ากันได้ และแนวทางปฏิบัติที่ดีที่สุด
นำเข้าโฟลว์โดยการลากไฟล์ PNG ที่มีข้อมูลเมตาหรือ JSON และตรวจสอบเวอร์ชันโหนดด้วยตัวจัดการ เมื่อแชร์รูปภาพ หลีกเลี่ยงการบีบอัดที่จะลบข้อมูลเมตาหาก JSON เสียหายในเวอร์ชันใหม่ ให้เปลี่ยนโหนดที่ล้าสมัยหรือติดตั้งเวอร์ชันที่เข้ากันได้
ในการทำงานกับ FLUX LoRA หลายตัว มีรายงานว่ามีการใช้พลังงานสูงในรุ่น ComfyUI ล่าสุด ทดสอบ GGUF หรือโหลดเดอร์เฉพาะ เพื่อลด VRAM ให้เหลือน้อยที่สุด ใน ControlNet ให้เริ่มต้นด้วยความลึกหรือ Canny เพื่อสร้างระบบคอมโพสิตที่เสถียร
เมื่อปรับใช้บนคลาวด์ ให้ตรวจสอบ VRAM และคิวการดำเนินการ ในระดับท้องถิ่น SSD ที่รวดเร็วและไดร์เวอร์ที่อัปเดตอยู่เสมอสร้างความแตกต่างอย่างมากจัดทำเอกสารขั้นตอนการทำงานของคุณตามส่วนต่างๆ ได้แก่ การโหลดโมเดล การปรับสภาพ การสุ่มตัวอย่าง การถอดรหัส และการประมวลผลหลังการประมวลผล วิธีนี้จะช่วยให้การดีบักง่ายขึ้นเมื่อมีปัญหาเกิดขึ้น
ด้วยสิ่งทั้งหมดที่กล่าวมาข้างต้น ตอนนี้คุณสามารถสร้างไปป์ไลน์ VFX ที่แข็งแกร่งอย่างแท้จริงด้วย ComfyUI ได้แล้ว: คุณเข้าใจหรือไม่ว่าเวิร์กโฟลว์คืออะไร และจะบันทึกโดยไม่สูญเสียข้อมูลเมตาได้อย่างไรคุณสามารถติดตั้ง FLUX และตัวแปรต่างๆ ได้ (ตัวเลือก Dev, Schnell และ FP8, NF4, GGUF) คุณทราบวิธีการรันเวิร์กโฟลว์หลักของการฝึกฝนประจำวัน (Txt2Img, Img2Img, Inpainting, ControlNet, LoRA, IPAdapter และ Upscale) และคุณสามารถติดตั้ง Windows ที่ได้รับการปรับให้เหมาะสมด้วย Triton, Sage Attention และ ComfyUI-Manager เพื่อให้ระบบทำงานได้ดี เสถียร และรวดเร็ว





