
Kling O1 המודל המולטימודאלי המאוחד הראשון בעולם ליצירת וידאו עם בינה מלאכותית
מודל ה-Kling O1 מסמן נקודת מפנה משמעותית בעולם הבינה המלאכותית היוצרת, במיוחד בתחום יצירת ועריכת הווידאו. הוא מוצג כמודל הווידאו
עולם הוידאו בבינה מלאכותית מתפתח בקצב מסחרר, אבל כל מי שניסה להנפיש דמות בכלי ה-AI שקיימים היום נתקל במגבלה אחת מרכזית: הדמויות לא זזות באופן מדוייק בהתאם לבקשה. בחלק מהכלים הן מרצדות, או לא מבצעות בדיוק את כל התנועות שביקשנו.
ואז הגיע Act Two של Runway, ובאמצעות יכולות Video to Video מתקדמות, הפך את מה שפעם היה ניסוי לא יציב, לחוויית וידאו דינמית, חיה ונשלטת.
סרטון השקת Act Two של Runway
אם Text to Video מאפשר לנו לבקש סרטון עם תיאור מילולי, ו-Image to Video יוצר אנימציה מתמונה, Video to Video מאפשר ליצור וידאו חדש באמעות וידאו קיים. כאן אנחנו למעשה מעלים סרטון קצר, אדם הולך, מדבר, רוקד, והמערכת “שואבת” ממנו את תנועות הגוף, הבעות הפנים, הקצב והאנרגיה. זה סוג של העתקת הופעה אבל מאוד חכמה.
Act Two מאפשר להזין סרטון של שחקן אמיתי + תמונה של דמות, ומחזיר וידאו שבו הדמות מבצעת את מה שהשחקן עשה, מתנועות הגוף, הפה ועד להבעות הפנים!
יצירת סרטונים עם פריימים של סיום מותאמים ב-Midjourney היא תהליך פשוט שמתאים גם למתחילים, והדרך הנוחה ביותר היא דרך ממשק האינטרנט:
העלאת תמונה שתשמש כפריים התחלה: היכנסו לאתר של Midjourney והעלו תמונת התחלה לחלונית “Start Frame” בסרגל העליון. תוכלו להשתמש בתמונה שיצרתם ב-Midjourney או להעלות תמונה חיצונית.
העלאת תמונה שתשמש כפריים סיום:
כעת גררו את התמונה שתרצו שתשמש כפריים סיום לחלונית “End Frame”.
יצירת לולאה: כדי ליצור סרטון לולאתי, סמנו את תיבת הסימון “Loop” בפריים הסיום. זה יגרום לפריים הראשון לשמש גם כפריים האחרון, כך שהסרטון יחזור על עצמו בצורה חלקה.
כתיבת פרומפט: בשרות הפרומפט הזינו תיאור טקסטואלי של מה שאתם רוצים שיקרה בסרטון
בחירת עוצמת הנפשה: בחרו בין high לסרטון עם הרבה תנועה או ב-Low לסרטון עם תנועה יותר רגועה.
בסרטונים, הפריים הראשון הוא התמונה שפותחת את הסרטון ומכינה את הצופים לחוויה, ואילו הפריים האחרון הוא זה שסוגר את הסרטון ומשאיר רושם אחרון. התכונה החדשה של Midjourney מאפשרת לכם לבחור בדיוק אילו תמונות ישמשו בתור הפריימים האלה, מה שנותן לכם שליטה על האווירה והמסר של הסרטון. לדוגמה, תוכלו להתחיל עם תמונה שלכם לבושים בבגדי יום-יום ובסיום תמונה שלכם לבושים בבגדי גיבור העל האהוב עליכם למשל.
1. העלו סרטון תנועה
וידאו קצר שבו אדם מבצע פעולה: דיבור, תנועה, משחק. זה ה-input שממנו המערכת תלמד איך להניע את הדמות.
2. צרפו תמונת דמות
כל מה שצריך כדי “להלביש” את הדמות תמונה אחת. לא סדרת זוויות, לא תיאור טקסטואלי. פשוט העלאת תמונה של מראה הדמות הרצויה. המערכת כבר תסיק לבד איך היא נראית כשהיא זזה, גם אם רואים אותה מהצד או בזוויות אחרות.
3. ומקבלים סרטון מונפש של הדמות
וזה לא מעט במיוחד כשמדובר בסרטונים ברמת רזולוציה קולנועית, עם תנועת מצלמה טבעית, קצב מדויק, וסינכרון שפתיים שנראה כאילו נערך על ידי איש מקצוע. הסרטון שמתקבל מוגבל כרגע עד 30 שניות.
ממש לא. אחד הדברים המרעננים ב-Act Two הוא שהממשק פשוט להפליא. מעלים סרטון, מעלים תמונה, בוחרים הגדרות פשוטות וזהו. אין שכבות, אין קווים בטיימליין, אין רינדורים מסובכים. הכל קורה בענן, בלי להכביד על המחשב שלכם.

מודל ה-Kling O1 מסמן נקודת מפנה משמעותית בעולם הבינה המלאכותית היוצרת, במיוחד בתחום יצירת ועריכת הווידאו. הוא מוצג כמודל הווידאו

בשלהי שנת 2025, עולם הטכנולוגיה עד להתפתחות דרמטית שמעידה על שינוי מהותי במאזן הכוחות בתעשיית הבינה המלאכותית. גוגל, שלאורך שלוש

כמעט חודש מאז שחברת Open AI השיקה את Sora 2, ונראה שהוא כבר את האינטרנט. הכלי הזה יוצר וידאו מתיאור
השאירו פרטים לחזרה