Google AI Studio: használati útmutató

A Google AI Studio egy intuitív, böngészőből használható felület, amellyel a legújabb Gemini modellekkel lehet gyorsan prototipizálni, kísérletezni és éles kódot exportálni. A platform átláthatóan egyesíti a promptolást, a kimenetek elemzését és a fejlesztői integrációt.

Mi az a Google AI Studio?

Shittu Olumide

A nagy nyelvi modellek (LLM-ek) ma már a modern szoftverek alapjai: segítenek a kódolásban, adatfeldolgozásban és tartalomgyártásban. Korábban több API-t és fejlesztői környezetet kellett összehangolni, csak hogy egyetlen promptot kipróbáljunk.

A Google AI Studio ezt a folyamatot egyszerűsíti. Egy webalapú munkafelület, ahol a legújabb Gemini modellekkel lehet promptokat írni, kimeneteket elemezni, majd működő kódot exportálni. A felület fejlesztőknek, designereknek és kutatóknak is ideális, akik ugyanabban a térben akarnak gondolkodni és tesztelni.

Fiók létrehozása és API-kulcs beállítása

Mielőtt a modelleket kipróbálnád, szükség van Google-fiókra és néhány alaplépésre.

  1. Jelentkezés az AI Studio-ba
    • Nyisd meg a aistudio.google.com oldalt, és jelentkezz be Google-fiókkal. A felület teljesen böngészőben működik, telepítés nélkül.
  2. Adatvédelmi feltételek elfogadása
    • Első használatkor el kell fogadni a Google AI Labs adatvédelmi és felhasználási feltételeit. Ez egyszeri lépés, amely engedélyezi, hogy az AI Studio hozzáférjen a projektekhez és mentse a promptok előzményeit.
  3. API-kulcs létrehozása
    • A bal oldali menüben válaszd az API Keys fület, majd kattints a Create API Key gombra. Nevezd el, rendeld egy projekthez, és másold ki a generált kulcsot. Ugyanez a kulcs használható Pythonban, Node.js-ben vagy cURL-ben.
Shittu Olumide

Python példa:

from google import genai

client = genai.Client()

response = client.models.generate_content(
    model="gemini-2.5-flash",
    contents="Explain how AI works in a few words",
)

print(response.text)

Node.js példa:

import { GoogleGenAI } from "@google/genai";

const ai = new GoogleGenAI({});

async function main() {
  const response = await ai.models.generateContent({
    model: "gemini-2.5-flash",
    contents: "Explain how AI works in a few words",
  });
  console.log(response.text);
}

await main();

Az AI Studio felületének áttekintése

A Google AI Studio felülete interaktív és átlátható: minden funkció egy helyen elérhető, a promptolástól a kódexportig.

Új beszélgetés indítása (+ ikon)

Teljesen új „session” létrehozása, korábbi adatok nélkül.

Ideiglenes beszélgetés (Temporary Chat)

Mentés nélküli beszélgetés, ahol a feltöltött fájlok a Google Drive-ban tárolódnak.

Shittu Olumide

Összehasonlító mód (Compare Mode)

Különböző modellek válaszainak párhuzamos megjelenítése, A/B tesztekhez és minőségellenőrzéshez.

Shittu Olumide

Kódgenerálás gomb (Get Code)

A prompt eredményét exportálja működő kódként, például Pythonban.

Shittu Olumide

Beállítások visszaállítása (Reset Default Settings)

Visszaállítja a modellparamétereket (Temperature, Top P, Max Tokens stb.) az alapértékekre.

Shittu Olumide

Prompt szerkesztő (Prompt Editor)

Fő beviteli mező, amely támogatja a többmenetes párbeszédet, fájlfeltöltést és multimédiás elemeket.

Shittu Olumide

Modellválasztó (Model Selector)

A jobb felső sarokban található, ahol kiválasztható a használt modell (Gemini, Gemma, Images stb.).

Shittu Olumide

Rendszerutasítások (System Instructions)

Globális irányelvek vagy szerepek megadása a modell számára, például:

  • „Te egy segítőkész kódasszisztens vagy.”
  • „Mindig pontokba szedve válaszolj.”
Shittu Olumide

Hőmérséklet (Temperature)

A válaszok változatosságát befolyásolja: alacsony érték precízebb, magasabb kreatívabb válaszokat ad.

Shittu Olumide

Haladó beállítások (Advanced Settings)

A „Haladó beállítások” (Advanced Settings) terület a modell kimenetét szabályozó finomhangolási paramétereket tartalmazza. Itt adható meg, meddig, hogyan és milyen stílusban generáljon szöveget a modell. A három legfontosabb beállítás: Stop Sequence, Output Length (Max Output Tokens) és Top P (Nucleus Sampling).

Shittu Olumide
Stop Sequence: a válasz leállításának feltétele

A Stop Sequence olyan karaktersorozat vagy szó, amely megjelenésekor a modell azonnal befejezi a választ. Ez azért hasznos, mert:

  • Lezárhatod a válasz hosszát természetes ponton (például bekezdés vagy lista után).
  • Elkerülheted a felesleges ismétlést vagy a témától való eltérést.
  • Használhatod formátumkorlátozáshoz (például ha csak a JSON végét akarod megkapni, vagy csak egy táblázatot).

Példák:

  • \n\n – a modell két sortörés után álljon le (egy bekezdésnyi válaszra).
  • END – a modell addig generáljon, amíg el nem éri ezt a szót.
  • </response> – XML vagy HTML-szerű formátum lezárásához.
Output Length (Max Output Tokens): a válasz maximális hossza

A Max Output Tokens megadja, hány tokenig (szó vagy szóelem) engedjük a modellt válaszolni.
A tokenek nem mindig felelnek meg egy szónak: egy angol szó átlagosan 1–1,5 token.

Mit befolyásol?

  • A válasz részletességét és hosszát.
  • A válasz időtartamát és költségét, mivel a legtöbb API token alapon számláz.
  • Ha túl rövidre állítod, a válasz levágódhat; ha túl hosszúra, a modell feleslegesen „bőbeszédű” lesz.

Irányelvek:

  • Rövid válaszokhoz (pl. összefoglalók, bulletpontok): 100–300 token.
  • Normál szövegekhez (pl. cikkrészletek, elemzések): 500–1000 token.
  • Hosszabb generáláshoz (pl. történetek, kódgenerálás): 1500–3000 token.
Top P (Nucleus Sampling): a kimenet valószínűségi „takarítása”

A Top P beállítás egy valószínűségi küszöböt ad meg (0–1 között), amely szabályozza, milyen „merészen” választ szavakat a modell a következő lépésben.

Ahelyett, hogy minden lehetséges szóból választana (mint a Temperature esetében), a Top P csak a legvalószínűbb szavakat veszi figyelembe, amíg azok összesített valószínűsége el nem éri a P értéket. Ezután csak ebből a szűkített halmazból választ.

Példák:

  • Top P = 1.0 → a modell bármilyen szót választhat, nagy kreativitás, több hiba.
  • Top P = 0.9 → a modell csak a 90%-nyi legvalószínűbb szavak közül választ, kiegyensúlyozott.
  • Top P = 0.5 → a modell a legvalószínűbb fele szóból választ; sokkal kiszámíthatóbb, formálisabb válasz.

Top P és Temperature együtt:

Mindkét érték a válasz véletlenszerűségét szabályozza, de más logikával:

  • A Temperature minden szó valószínűségét „laposítja” vagy „meredekké” teszi, így befolyásolja az eloszlást.
  • A Top P levágja a ritkább szavakat a lista végéről, kizárva az extrém választásokat.

Ajánlás:

  • Ha kreatív írásra vagy brainstormingra használsz modellt → Temperature 0.8–1.0, Top P 0.9–1.0
  • Ha adatfeldolgozásra vagy strukturált válaszraTemperature 0.2–0.5, Top P 0.7–0.9
Összefoglalva: a három beállítás együttműködése
BeállításFő hatásTipikus értéktartományMikor érdemes állítani
Stop SequenceA válasz leállítási pontjakarakterlánc (pl. \n\n, END)Ha csak részválasz kell vagy strukturált kimenet
Output LengthA válasz maximális hossza100–3000 tokenHa rövidebb vagy hosszabb válasz szükséges
Top PSzókiválasztási valószínűség0.5–1.0Kreativitás vagy formalitás szabályozásához

Válaszpanel (Response Panel)

Megjeleníti a modell kimenetét és a válaszhoz tartozó metaadatokat.

Modellek és verziók kiválasztása

A modellnevekben szerepelhet verziószám (pl. 2.5), szint (Flash, Pro, Ultra), valamint „latest” vagy „Lite” jelölés.

  • Gemini Flash – gyors, költséghatékony, rövid válaszidő, valós idejű alkalmazásokhoz.
  • Gemini Pro – nagyobb teljesítmény, összetettebb feladatokra.
  • Gemini Ultra – fejlett multimodális és kutatási célokra.
  • Code Models – kódgenerálásra és hibakeresésre.
  • Embedding Models – keresésre, ajánlásra és szemantikus lekérdezésekre.
ModellKontextusKésleltetésIdeális felhasználás
Gemini 2.5 FlashMagas (128K)Nagyon alacsonyValós idejű appok, chat, összegzés
Gemini 2.5 Flash latestMagas (128K+)Nagyon alacsonyFrissített, optimalizált változat
Gemini 2.5 Flash-Lite latestMagas (128K)Rendkívül alacsonyGyors válaszok, kis erőforrás
Gemini 2.5 ProNagyon magas (256K+)KözepesÖsszetett feladatok, kód, adat
Gemini 2.5 Pro latestNagyon magas (256K+)KözepesLegújabb fejlesztés
Gemini UltraUltra magas (1M+)MagasMultimodális, kutatási cél
Code ModelsVáltozóAlacsony–közepesKódgenerálás
Embedding ModelsVáltozóNagyon alacsonyKeresés, ajánlás

Képgenerálás és szerkesztés az AI Studio-ban

A Google AI Studio az Imagen és Gemini modellekre épít, amelyek szövegből képet hoznak létre, variációkat és szerkesztéseket is készítenek.

Prompt:

Cyberpunk város éjszaka, neonfény, repülő autók, felhőkarcolók, egy nyomozó a tetőn, aki a várost figyeli.

Beállítások:

Model: Imagen 4
Képek száma: 1
Képarány: 16:9

Shittu Olumide

Az eredmény:

Generált kép

Alkalmazások készítése a Build funkcióval

A Build funkció segítségével egy működő prompt API-végponttá alakítható, integrációs kód generálható, és akár webes alkalmazásként is publikálható.

Példa: Smart Recipe Generator
Felhasználó megadja az alapanyagokat, az MI pedig receptet generál hozzávalókkal, lépésekkel és főzési idővel.

Shittu Olumide

Beállítások:

Model: Gemini-2.5 Pro
System instructions: „Te egy kreatív séf asszisztense vagy…”

Shittu Olumide

Prompt példa:

Input: „chicken breast, bell peppers, onions, rice, soy sauce, garlic”
Output:

  • Recipe Name
  • Ingredients
  • Instructions
  • Cooking Time
Shittu Olumide

Az AI Studio szerepe a fejlesztésben

A Google AI Studio megkönnyíti a nyelvi modellekkel való munkát, és új szintre emeli a kísérletezést. A gyors prototipizálás, a rugalmas modellválasztás és a Vertex AI-integráció lehetővé teszi, hogy a fejlesztők néhány kattintással valós alkalmazásokat készítsenek.

Kérjük, ellenőrizd a mező formátumát, és próbáld újra.
Köszönjük, hogy feliratkoztál.

vagyunk.hu hírlevél