Tokenization
Tokenization، توکنایزیشن، توکنسازی
Tokenization به عنوان فرآیند جایگزینی یک عنصر داده حساس با یک معادل غیرحساس مانند یک توکن تعریف میشود. قابل توجه است که توکنها هیچ معنا یا ارزش بیرونی یا قابل بهرهبرداری ندارند.
مطالب مرتبط با واژه
آخرین واژهها