RECURRENT DONATION
Donate monthly to support
the NeculaiFantanaru.com project
Tämän kirjan olennainen ominaisuus verrattuna muihin saman alan markkinoilla oleviin on, että se kuvaa esimerkein johtajan ihanteellisia kykyjä. En ole koskaan väittänyt, että on helppoa tulla hyväksi johtajaksi, mutta jos ihmiset niin haluavat...
Kirjoitin tämän kirjan, joka yhdistää yksinkertaisella tavalla henkilökohtaisen kehityksen ja johtamisen, aivan kuin palapelin, jossa sinun on yhdistettävä kaikki annetut palaset muodostaaksesi uudelleen yleiskuvan.
Tämän kirjan tarkoituksena on tarjota sinulle tietoa konkreettisten esimerkkien kautta ja näyttää, kuinka saada kyky saada muut näkemään asiat samasta näkökulmasta kuin sinä.
Ymmärtämättä sitä yhteisymmärryksenä kirja edustaa tavallisen miehen - kirjailijan - yritystä, joka yksinkertaisten sanojen, tosiasioiden ja tavallisten esimerkkien avulla juurruttaa tavalliselle ihmiselle rohkeutta ja optimismia hänen omassa pyrkimyksessään olla oman itsensä herra ja kuka tietää. .. ehkä jopa johtaja.
Voit tarkastella koko koodia täältä:Https: // passatin.com / vs xl 淌 ucl AsentaaPython. Asenna sitten seuraavat kaksi kirjastoa käyttämällä Command Prompt (CMD) tulkki Windows10: ssa: py- m pip install google-cloud-translate py -m pip install beautifulsoup4 Python kääntää automaattisesti seuraavat HTML-tunnisteet:
Myös Python-koodi kääntää myös seuraavien tunnisteiden (tekstin) sisällön, mutta vain, jos nämä tunnisteet kehystäänja HTML kommentit. Tietenkin sinun on korvattava nämä tunnisteet omilla tunnisteillesi.
Tarvitset tiedoston laajennuksella .json (Nimein sen Secret.json), mitä voit päästä Https://console.cloud.google.com/ Seuraa tätä opetusohjelmaa siitä, miten saat Google API -näppäin. Kopioi Secret.json tiedosto samaan kansioon kuin alla oleva koodiJotkut ihmiset koodaavat. Ystävät Koodi: Kopioi ja suorita alla oleva koodi missä tahansa tulkkiohjelmassa(Käytänpyscripter.Älä unohda muuttaa polkua "files_from_folder" -linja. from bs4 import BeautifulSoup from bs4.formatter import HTMLFormatter import requests import json import os import six from google.cloud import translate_v2 as translate class UnsortedAttributes(HTMLFormatter): def attributes(self, tag): for k, v in tag.attrs.items(): yield k, v def translate_text(target, text): """Translates text into the target language. Target must be an ISO 639-1 language code. See https://g.co/cloud/translate/v2/translate-reference#supported_languages """ os.environ["GOOGLE_APPLICATION_CREDENTIALS"] = "secret.json" translate_client = translate.Client() if isinstance(text, six.binary_type): text = text.decode("utf-8") # Text can also be a sequence of strings, in which case this method # will return a sequence of results for each text. result = translate_client.translate(text, target_language=target) return result["translatedText"] files_from_folder = r"C:\test" source_language = 'EN' use_translate_folder = False destination_language = 'ZH' extension_file = ".html" import os directory = os.fsencode(files_from_folder) def recursively_translate(node): for x in range(len(node.contents)): if isinstance(node.contents[x], str): if node.contents[x].strip() != '': try: newtext = translate_text(destination_language, node.contents[x]) node.contents[x].replaceWith(newtext) except: pass elif node.contents[x] != None: recursively_translate(node.contents[x]) for file in os.listdir(directory): filename = os.fsdecode(file) print(filename) if filename == 'y_key_e479323ce281e459.html' or filename == 'TS_4fg4_tr78.html': continue if filename.endswith(extension_file): with open(os.path.join(files_from_folder, filename), encoding='utf-8') as html: soup = BeautifulSoup('', 'html.parser') for title in soup.findAll('title'): recursively_translate(title) for meta in soup.findAll('meta', {'name':'description'}): try: newtext = translate_text(destination_language, meta['content']) meta['content'] = newtext except: pass for h1 in soup.findAll('h1', {'itemprop':'name'}, class_='den_articol'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(h1)) < end_comment: recursively_translate(h1) for p in soup.findAll('p', class_='text_obisnuit'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(p)) < end_comment: recursively_translate(p) for p in soup.findAll('p', class_='text_obisnuit2'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(p)) < end_comment: recursively_translate(p) for span in soup.findAll('span', class_='text_obisnuit2'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(span)) < end_comment: recursively_translate(span) for li in soup.findAll('li', class_='text_obisnuit'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(li)) < end_comment: recursively_translate(li) for a in soup.findAll('a', class_='linkMare'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(a)) < end_comment: recursively_translate(a) for h4 in soup.findAll('h4', class_='text_obisnuit2'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(h4)) < end_comment: recursively_translate(h4) for h5 in soup.findAll('h5', class_='text_obisnuit2'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(h5)) < end_comment: recursively_translate(h5) print(f'{filename} translated') soup = soup.encode(formatter=UnsortedAttributes()).decode('utf-8') new_filename = f'{filename.split(".")[0]}_{destination_language}.html' if use_translate_folder: try: with open(os.path.join(files_from_folder+r'\translated', new_filename), 'w', encoding='utf-8') as new_html: new_html.write(soup[5:-6]) except: os.mkdir(files_from_folder+r'\translated') with open(os.path.join(files_from_folder+r'\translated', new_filename), 'w', encoding='utf-8') as new_html: new_html.write(soup[5:-6]) else: with open(os.path.join(files_from_folder, new_filename), 'w', encoding='utf-8') as html: html.write(soup[5:-6])'+ html.read() + ' That's all folks. If you like my code, then make me a favor: translate your website into Romanian, "ro". Tarkista myös tämä käännöskoodi: BeautifulSoup Library tai DEEPL+API Key taiVersio 3taiVersio 4 Latest articles accessed by readers:
Donate via Paypal
RECURRENT DONATIONDonate monthly to support SINGLE DONATIONDonate the desired amount to support Donate by Bank TransferAccount Ron: RO34INGB0000999900448439
Open account at ING Bank
|
||||||||||||
![]() |
||||||||||||