Obsah
- 1 6 způsobů, jak přijít na nová slova
- 2 8 způsobů, jak si rozšířit slovní zásobu: nejen čtení
- 3 1 způsob. Zbavte se parazitických slov
- 4 Metoda 2. Zpestřit čtení
- 5 3 způsobem. Učit se nová slova
- 6 4 způsob. Založte si osobní deník nebo blog
- 7 5 způsobem. Naučte se básně, aforismy, citáty
- 8 6 způsobem. Používejte flash karty
- 9 7 způsobem. Hrajte si se slovy
- 10 8 způsobem. Nainstalujte aplikace
- 11 Budu bydlet v Lanewoodu. Vytváření nových slov pomocí GPT
- 12 Vytváření slov
- 13 O úroveň níže
- 14 Další
6 způsobů, jak přijít na nová slova
8 způsobů, jak si rozšířit slovní zásobu: nejen čtení
Schopnost krásně a přesvědčivě mluvit – nebo komunikační dovednosti – je vysoce ceněná v každé práci. Proto stojí za to přemýšlet o rozvoji řečnických dovedností, když jste ve škole. V tomto článku budeme hovořit o způsobech, které pomohou rozšířit vaši slovní zásobu a mluvit jako slavík zpívá.
1 způsob. Zbavte se parazitických slov
Zeptejte se svých přátel, zda si ve vaší řeči všimli výplňových slov. Nebo si nahrajte text na hlasový záznamník, abyste „v patách“ našli tyto „škůdce“. Například slova „no, to znamená, že je to skutečné, je to velký problém“ a podobně, řeč je chudá. Snažte se proto uvolnit místo nové krásné slovní zásobě.
Metoda 2. Zpestřit čtení
Je jasné, že abyste krásně vyjádřili své myšlenky, musíte pravidelně číst. Ale neměli byste se omezovat pouze na klasickou literaturu. Je užitečné zahrnout oblíbené romány, časopisy, blogy atd. do seznamu četby. Abyste byli erudovaným člověkem, měli byste stejně dobře rozumět tomu, co znamená „korelace“, „postulát“ nebo „hype“, „horní linie“.
3 způsobem. Učit se nová slova
Chcete-li obohatit svůj projev, stojí za to naučit se nová slova. K tomu noste s sebou sešit nebo si nainstalujte aplikaci na poznámky, do které budete psát zajímavou slovní zásobu. Mohou to být fráze, které zaslechnete někde na ulici, v obchodě, metru, na výstavě a podobně. Můžete si také zavést zvyk studovat jednu položku po druhé z výkladového slovníku. Přečtete si to s příklady, zapamatujete si to a zapíšete si to do sešitu. Jak říká běloruské přísloví: „Slova a slova – budze mova.“
4 způsob. Založte si osobní deník nebo blog
Myslíte si, že vás ve škole nechali jen tak psát eseje nebo shrnutí? Ne, tento typ písemné práce je nezbytný pro rozvoj řeči. Ale můžete cvičit v tomto formátu každý den tím, že si budete vést osobní deník nebo blog. Popište například svůj den, emoce nebo připravte příspěvky na určité téma. Denní lekce vám umožní upevnit to, co jste se naučili v praxi, a zlepšit vaši slabiku.
5 způsobem. Naučte se básně, aforismy, citáty
Respekt vzbuzuje člověk, který při rozhovoru dokáže projevit svou erudici odkazem na nějaké citáty nebo události. Chcete-li zároveň trénovat své komunikační schopnosti a paměť, osvojte si návyk naučit se alespoň jednu básničku měsíčně. Můžete si je zapsat do samostatného sešitu, abyste věděli, kam se podívat, když náhle zapomenete slovo nebo řádek. Souhlasíte, je mnohem příjemnější naučit se text, který vás chytne, než cpát slovní zásoby jednu po druhé.
6 způsobem. Používejte flash karty
Myslíme si, že je to známá metoda. Na kartičku napíšete slovo a na zadní stranu jeho význam. Tímto způsobem se pokusíte naučit lexémy a v případě potřeby se podíváte na zadní stranu kartonu. Podívejte se, při desátém opakování si zapamatujete spoustu nových věcí. Mimochodem, karty neschovávejte daleko, ale rozvěste je po domě: na lednici, polici nebo dveře. Takže když projdete kolem těchto kusů nábytku, můžete si lexémy za pochodu opakovat. Není stresující a produktivní.
7 způsobem. Hrajte si se slovy
Podělíme se s vámi o několik slovních her, které vám pomohou rozvíjet řeč a upevnit naučená slova v paměti. Smyslem první hry je vymýšlet věty, ve kterých každé slovo začíná dalším písmenem abecedy. Například: „Meloun byl velkolepý, těžký. Dáša jedla, hlasitě žvýkala,“ a tak dále. Věty můžete vymýšlet změnou podmínek hry: vymyslete pouze slovesa, přídavná jména nebo příčestí. Zní to nějak takto: „Probudil jsem se. Umyla jsem se. Oblékl se. Povzdechl si. Vyjít.“ atd. Pokud chcete řešit složitější hádanky, zkuste vymyslet text, ve kterém všechna slova začínají na stejné písmeno. Už zajímavé, že?
Také stojí za to zahrnout do hry výběr synonym a antonym pro různá slova. Kolik lexémů, které mají podobný význam jako přídavné jméno „veselý“, znáte? Dáme alespoň pět: radostný, hravý, energický, veselý, energický, rozpustilý. Máte nějaké další možnosti?
8 způsobem. Nainstalujte aplikace
Internet je plný aplikací, které vám pomohou procvičovat rozvoj řeči na jakémkoli místě, které vám vyhovuje: doma, v autobuse na cestě do školy, ve frontě v obchodě a tak dále. Věnujte pozornost populárním „Words of Wonders“, „Word Chef“, „Word Line: Crosswords“, „Hádej slova“, „Word of the Day“ a dalším. Můžete si tak nenudně procvičit své komunikační schopnosti.
Bohatá řeč je klíčem k úspěchu ve škole nebo v práci. Začněte si tedy rozšiřovat slovní zásobu co nejdříve. Hodně štěstí!
Děkuji, že jste dočetli až do konce. Jsme rádi, že jsme byli nápomocni. Další informace naleznete také na:
Nenechte si ujít důležité novinky a odebírejte naše YouTube, VK, Instagram, Telegram, Facebook a upozornění na adukar.by.
Budu bydlet v Lanewoodu. Vytváření nových slov pomocí GPT
Navrhuji se trochu pobavit a naučit se vymýšlet nová slova, která znějí stejně jako ta skutečná (stejně jako produkty v Ikea). Pro začátek zde je tucet neexistujících měst:
Lumberg, Sef, Hirnow, Binley, Lussky, Nolovorsk, Sant-Gumit, Hoyden, Golton a Ogoland
A pár ženských jmen:
Inela, Kaisya, Gunnora, Celia, Tarisana, Lelena, Feomina, Oliza, Nulina a Rosliba
Abychom mohli začít s generováním, nebudeme potřebovat technické dovednosti, ačkoli technologie za tím je nyní velmi slibná a multifunkční. Jedná se o generativní neuronovou síť schopnou řešit mnoho problémů zpracování přirozeného jazyka (NLP). Jsou to úkoly jako sumarizace (vytvoření souhrnu z velkého textu), porozumění textu (NLU), systémy otázka-odpověď, generování (třeba poezie – o Habrém byl dobrý článek) a další. Toto téma je velmi hluboké, takže níže dám pár odkazů pro ty, kteří se rádi ponoří hlouběji. A ti, kteří se chtějí „jen zeptat“, mohou okamžitě začít tvořit slova.
Vygenerujeme jej pomocí makemore skriptu od Andrey Karpathy (nedávno o scénáři psal v kanálu přechodu k zániku), který zveřejnil před pár týdny. Andrey je známý výzkumník ve světě AI a pravidelně lidi potěší takovými hračkami, můžete procházet jeho úložiště, stále je tam spousta zajímavých věcí.
Vytváření slov
Pro začátek potřebujeme Python a jednu závislost v podobě frameworku PyTorch. Pokud python není nainstalován, nainstalujte jej. Poté nainstalujte pytorch:
pip install torch
Zkopírujeme skript do našeho počítače, vedle něj dáme soubor se seznamem slov, která se chceme naučit. Pokud chceme vytvořit nová jména, pak by to měl být seznam jmen, jedno jméno na řádek. Jazyk zde není důležitý, neuronová síť je trénována na úrovni symbolů. Ale protože se bude snažit tvořit slova ze všech přítomných postav, ujistěte se, že jsou ze stejné abecedy. Například ruská jména v azbuce.
Připravil jsem několik vzorových slovníků, vyzkoušejte je a pak můžete pomocí svých seznamů generovat slova na vaše téma. Je žádoucí, aby jich bylo několik tisíc. Města, ženská jména.
Skript spustíme příkazem:
$ python makemore.py -i cities_ru.txt -o cities
Začne proces učení a do naší konzole se začnou hrnout nová slova, čím dále, tím lépe.
number of examples in the dataset: 10929 max word length: 27 number of unique characters in the vocabulary: 67 vocabulary: -.`ЁАБВГДЕЖЗИЙКЛМНОПРСТУФХЦЧШЩЭЮЯабвгдежзийклмнопрстуфхцчшщъыьэюяё number of parameters: 210560 . step 0 | loss 2.0676 | step time 3280.48ms step 10 | loss 2.1383 | step time 56.45ms step 20 | loss 2.3182 | step time 55.55ms step 30 | loss 2.1130 | step time 57.24ms step 40 | loss 2.2769 | step time 55.46ms step 50 | loss 2.2236 | step time 56.27ms step 60 | loss 2.1755 | step time 59.49ms .
10 samples that are new: Ермышыевка Тареп Ла-Конково Гольское Крзусто Сыревка Бангруу Балманауннти Голтон Юрчуан
Po nějakém tréninku můžete model spustit v netrénovaném režimu a dívat se pouze na nová slova:
$ python makemore.py -i cities_ru.txt -o cities --sample-only
50 samples that are new: Ририка Меимсвилл Дана-Гап Тачьякин Нигина Ассер-Куйн Свитлаум Митсу Баргиси Шивер Венния Бйокенигорд Хирава Халлы Тельск Мудделжон Шюихатай Красноарская Сваркофетольский Хорвион Стомесе-Клинглид Сен Фортингтам Бивле Ряслянд-Сититу Бамборо
Chladný. Ale jak to celé funguje?
O úroveň níže
Pokud přejdete do složky předané v parametru -o (města), poté uvidíte soubor model.pt a soubory events.* – jedná se o protokoly ve formátu TensorBoard. Ukazují, jak byl model trénován. Během školení jsou data rozdělena na školení a ověřování, které lze použít k více či méně adekvátnímu posouzení kvality modelu. Pokud trénujete model dostatečně dlouho, chyba v trénovacích datech bude nadále klesat, zatímco chyba v ověřovacích datech se začne časem zvětšovat – tomu se říká overfitting.
Autor říká, že skript byl zamýšlen jako „super hacknutelný“, takže se na něj pojďme podívat:
class GPTConfig: # size of the model n_layer: int = 4 n_head: int = 4 n_embd: int = 64 vocab_size: int = None block_size: int = None # regularization embd_pdrop: float = 0.1 resid_pdrop:float = 0.1 attn_pdrop:float = 0.1 class TrainConfig: # optimization parameters learning_rate: float = 5e-4 weight_decay: float = 0.1 # only applied on matmul weights betas: List[float] = (0.9, 0.99) class GPT(nn.Module): """ the full GPT language model, with a context size of block_size """ .
Ve skutečnosti tento skript popisuje jak architekturu modelu (GPT), tak jeho konfiguraci (ve výchozím nastavení má model ~200k trénovatelných parametrů, proto můžete tuto maličkost trénovat na svém počítači bez grafické karty) a pracovat s datovou sadou a tréninkovým cyklem (aka vlaková smyčka). Veškerá „kouzla“ se odehrávají ve vlakové smyčce – model vypočítá určitou chybovou funkci (ztrátu), vypočítá se gradient (aby se vědělo, „jakým směrem se pohnout“, aby se chyba snížila), a provede se trénovací krok. .
while True: . batch = [t.to(args.device) for t in batch] X, Y = batch # feed into the model logits, loss = model(X, Y) # calculate the gradient, clip it, update the weights model.zero_grad(set_to_none=True) loss.backward() torch.nn.utils.clip_grad_norm_(model.parameters(), 1.0) optimizer.step()
Můžete experimentovat se skriptem, nastavit větší model, změnit množství vzorkování a další parametry (pozor na argumenty na konci skriptu). Scénář je velmi pěkný a kompaktní, jen asi 500 řádků. Doporučuji se do toho ponořit, pokud vás zajímají neuronové sítě nebo co dělá Teslov ředitel AI ve svém volném čase.
Další
Pro bližší seznámení s tématem zde uvádíme několik zajímavých odkazů. Kromě toho jsem nedávno provozoval skromný kanál o strojovém učení, ve kterém mluvím o novinkách AI a sdílím své zkušenosti. zvu tě do toho.
⚡ Gradient odsouzen k záhubě – můj telegramový kanál o strojovém učení a poznámky o práci v DS.
DIY. Knihy pro každého, zdarma – zde jsem použil NLP modely k vytvoření paralelních knih, dopadlo to cool.
Úložiště se skriptem je tuřín Andrei Karpatiho na GitHubu.
GPT-2 v obrazech – zde je překlad slavného článku Jaye Alammara.
GPT for Dummies je podobný článek, ale na konci je více odkazů.
️ Blog Davida Dahleho – mnoho dobrých článků o ruském NLP.
GPT-3 Playground – zde si můžete zahrát s původní sítí GPT-3 od OpenAI, kterou, i když je zveřejněna, ji stále nespustíte kvůli její obrovské velikosti.
OPT. GPT od Meta – a zde si můžete stáhnout analog sítě GPT s 30 miliardami parametrů (!). A spusťte, pokud máte A100 s 80Gb.
Komunita ODS – no, kdyby někdo nevěděl, je to velká přátelská komunita pro DS, ML a příbuzné zkratky.
- počítačová lingvistika
- generativní modely
- GPT-3
- Gpt
- lingvistika
- conlangs
- strojové učení
- krajta
- Abnormální programování
- PYTHON
- Strojové učení
- Umělá inteligence
- Zpracování přirozeného jazyka