RECURRENT DONATION
Donate monthly to support
the NeculaiFantanaru.com project
ئوخشاش كىتابتىكى بازاردىكى باشقىلارغا سېلىشتۇرغاندا بۇ كىتابنىڭ ماھىيەتلىك ئالاھىدىلىكى شۇكى ، ئۇ بىر رەھبەرنىڭ كۆڭۈلدىكىدەك قابىلىيىتىنى مىساللار ئارقىلىق تەسۋىرلەيدۇ. مەن ئەزەلدىن ياخشى رەھبەرگە ئايلىنىشنىڭ ئاسان ئىكەنلىكىنى ئېيتمىدىم ، ئەمما كىشىلەر خالىسا...
مەن بۇ كىتابنى ئاددىيغىنە ئۇسۇلدا رەھبەرلىك بىلەن شەخسىي تەرەققىياتقا بىرلەشتۈرگەن بۇ كىتابنى يازدىم ، خۇددى تېپىشماققا ئوخشاش ، ئومۇمىي ئوبرازنى قايتا ھاسىل قىلىش ئۈچۈن سىز بېرىلگەن بارلىق پارچىلارنى ماسلاشتۇرۇشىڭىز كېرەك.
بۇ كىتابنىڭ مەقسىتى سىزنى كونكرېت مىساللار ئارقىلىق ئۇچۇر بىلەن تەمىنلەش ۋە باشقىلارغا نەرسىلەرنى سىزگە ئوخشاش نۇقتىدىن كۆرۈش ئىقتىدارىغا قانداق ئېرىشىشنى كۆرسىتىش.
بۇ يەردىكى تولۇق كودنى كۆرەلەيسىز:HTTPS: // Passatbin.com/7 from 27pp q6 قاچىلاشPython. ئاندىن Windows10 دىكى بۇيرۇق ئەسكەرتمىسى (CMD) تەرجىمان ئارقىلىق تۆۋەندىكى ئىككى كۈتۈپخانىنى قاچىلاڭ: Python ئاپتوماتىك ھالدا Googletrans كۈتۈپخانىسى بىلەن تۆۋەندىكى HTML خەت بەلگىلىرىنى ئاپتوماتىك تەرجىمە قىلىدۇ: py -m pip install "googletrans" py -m pip install googletrans==4.0.0rc1 py -m pip install beautifulsoup4 ئۇنىڭدىن باشقا, Python كودىمۇ تۆۋەندىكى خەتكۈچلەرنىڭ مەزمۇنىنى (تېكىستىڭىز) نىڭ مەزمۇنىنى (تېكىستىڭىز) نىڭ مەزمۇنىنى ئۆزگەرتىدۇ, ئەمما بۇ خەتكۈچلەر بېكىتىلسەۋە HTML تەكشۈرۈشى. ئەلۋەتتە, بۇ بەلگىلەرنى ئۆزىڭىزنىڭ خەتكۈچلىرى بىلەن ئالماشتۇرۇشىڭىز كېرەك.
كود: ھەر قانداق تەرجىمان پروگراممىسىدا تۆۋەندىكى كودنى كۆچۈرۈپ ئىجرا قىلىڭ (مەن ئىشلىتىمەن) توركۆرگۈ).«ھۆججەتلەر_from_folder» دىكى يولىنى ئۆزگەرتىشنى ئۇنتۇپ قالماڭ.بۇ يەردە تەرجىمە قىلغىلى بولىدىغان تىللارنىڭ تىزىملىكى:Langئاندىن, ئاندىن from bs4 import BeautifulSoup from bs4.formatter import HTMLFormatter from googletrans import Translator import requests translator = Translator() class UnsortedAttributes(HTMLFormatter): def attributes(self, tag): for k, v in tag.attrs.items(): yield k, v files_from_folder = r"e:\Carte\BB\17 - Site Leadership\Principal" use_translate_folder = False destination_language = 'ceb' extension_file = ".html" import os directory = os.fsencode(files_from_folder) def recursively_translate(node): for x in range(len(node.contents)): if isinstance(node.contents[x], str): if node.contents[x].strip() != '': try: node.contents[x].replaceWith(translator.translate(node.contents[x], dest=destination_language).text) except: pass elif node.contents[x] != None: recursively_translate(node.contents[x]) for file in os.listdir(directory): filename = os.fsdecode(file) print(filename) if filename == 'y_key_e479323ce281e459.html' or filename == 'TS_4fg4_tr78.html': #ignore this 2 files continue if filename.endswith(extension_file): with open(os.path.join(files_from_folder, filename), encoding='utf-8') as html: soup = BeautifulSoup('', 'html.parser') for title in soup.findAll('title'): recursively_translate(title) for meta in soup.findAll('meta', {'name':'description'}): try: meta['content'] = translator.translate(meta['content'], dest=destination_language).text except: pass for h1 in soup.findAll('h1', {'itemprop':'name'}, class_='den_articol'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(h1)) < end_comment: recursively_translate(h1) for p in soup.findAll('p', class_='text_obisnuit'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(p)) < end_comment: recursively_translate(p) for p in soup.findAll('p', class_='text_obisnuit2'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(p)) < end_comment: recursively_translate(p) for span in soup.findAll('span', class_='text_obisnuit2'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(span)) < end_comment: recursively_translate(span) for li in soup.findAll('li', class_='text_obisnuit'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(li)) < end_comment: recursively_translate(li) for a in soup.findAll('a', class_='linkMare'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(a)) < end_comment: recursively_translate(a) for h4 in soup.findAll('h4', class_='text_obisnuit2'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(h4)) < end_comment: recursively_translate(h4) for h5 in soup.findAll('h5', class_='text_obisnuit2'): begin_comment = str(soup).index('') end_comment = str(soup).index('') if begin_comment < str(soup).index(str(h5)) < end_comment: recursively_translate(h5) print(f'{filename} translated') soup = soup.encode(formatter=UnsortedAttributes()).decode('utf-8') new_filename = f'{filename.split(".")[0]}.html' if use_translate_folder: try: with open(os.path.join(files_from_folder+r'\translated', new_filename), 'w', encoding='utf-8') as new_html: new_html.write(soup[5:-6]) except: os.mkdir(files_from_folder+r'\translated') with open(os.path.join(files_from_folder+r'\translated', new_filename), 'w', encoding='utf-8') as new_html: new_html.write(soup[5:-6]) else: with open(os.path.join(files_from_folder, new_filename), 'w', encoding='utf-8') as html: html.write(soup[5:-6])'+ html.read() + ' That's all folks. If you like my code, then make me a favor: translate your website into Romanian, "ro". شۇنداقلا, بار2-نەشرىبۇ كودنىڭ ياكى3-نەشرىياكى4-نەشرىياكى5-نەشرىياكى6-نەشرى
Latest articles accessed by readers:
Donate via Paypal
RECURRENT DONATIONDonate monthly to support SINGLE DONATIONDonate the desired amount to support Donate by Bank TransferAccount Ron: RO34INGB0000999900448439
Open account at ING Bank
|
||||||||||||
![]() |
||||||||||||