#include "process_unicode.h"
static uint8_t input_mode;
-static uint16_t linux_key = UNICODE_LNX_KEY;
uint16_t hex_to_keycode(uint8_t hex)
{
input_mode = os_target;
}
-void set_unicode_input_key_lnx(uint16_t key)
-{
- linux_key = key;
-}
-
+__attribute__((weak))
void unicode_input_start (void) {
switch(input_mode) {
case UC_OSX:
case UC_LNX:
register_code(KC_LCTL);
register_code(KC_LSFT);
- register_code(linux_key);
- unregister_code(linux_key);
+ register_code(KC_U);
+ unregister_code(KC_U);
unregister_code(KC_LSFT);
unregister_code(KC_LCTL);
break;
wait_ms(UNICODE_TYPE_DELAY);
}
+__attribute__((weak))
void unicode_input_finish (void) {
switch(input_mode) {
case UC_OSX:
#define UC_WIN 2
#define UC_BSD 3
-#ifndef UNICODE_LNX_KEY
-#define UNICODE_LNX_KEY KC_A
-#endif
-
#ifndef UNICODE_TYPE_DELAY
#define UNICODE_TYPE_DELAY 10
#endif
void set_unicode_input_mode(uint8_t os_target);
-void set_unicode_input_key_lnx(uint16_t linux_key);
void unicode_input_start(void);
void unicode_input_finish(void);
void register_hex(uint16_t hex);